PDA

View Full Version : [Thread Ufficiale] nVidia AD102-AD103 (RTX 4090 - 4080/Super - 4070Ti Super)


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57

Cutter90
26-03-2023, 19:55
Scusa ma che senso ha, lo so che i numeretti sono diversi, io intendo l'esperienza nel gioco e se ti accorgi che stai a PL libero o PL limitato, secondo me no. Poi se la fai con i numeretti travisi completamente il mio discorso. Poi, sia chiaro, io non voglio convincere nessuno, quindi se a te sta bene consumare 450W in un gioco, liberissimo di farlo, io, se posso e se secondo me non influisce sulla mia esperienza di gioco limito i consumi e continuerò a farlo perchè per me la differenza tra 100 FPs e 135 FPs è solo fuffa completamente inutile.

Pensavo che ormai avessimo già definito questa cosa. Limitare il pl al 50 fa perdere dai 20 ai 30 fps. Se si perde dai 120 a 150 magari ok, ma anche qui dipende dal tipo di gioco. Ma già da 120 a 90 ci si accorge della differenziata tranquillamente. Non parliamo poi se siamo intorno ai 60. Tra 65 e 45 c'è una differenza sostanziale, mi sembra inutile dirlo.
Se il tuo obiettivo era consumare poco la 4090 potevi non compralma. A che scopo acquistare una scheda top del top da 2000 euro per poi farla andare come una 3090 ti? Per risparmiare sui consumi? Però i 2000 euro sono usciti per acquistarla e se non lo facevi risparmiavi molto di più che risparmiare 100 watt ogni volta che giochi.
Boh davvero, io non capisco il tuo ragionamento :)

Salfox
26-03-2023, 20:26
Ma già da 120 a 90 ci si accorge della differenziata tranquillamente.
Se il tuo obiettivo era consumare poco la 4090 potevi non compralma. A che scopo acquistare una scheda top del top da 2000 euro per poi farla andare come una 3090 ti? Per risparmiare sui consumi? Però i 2000 euro sono usciti per acquistarla e se non lo facevi risparmiavi molto di più che risparmiare 100 watt ogni volta che giochi.
Boh davvero, io non capisco il tuo ragionamento :)

Allora, l'ultimo mio messaggio sull'argomento visto che ho capito che io e tanti qui sul forum la pensiamo in maniera molto diversa.
1) sfido chiunque ad accorgersi della differenza tra 90 e 120 fps (senza i numeretti ovvio).
2) non è affatto vero che la 4090 limitata è equivalente a una 3090ti perchè c'è una differenza nell'efficienza tra le due che è abissale senza considerare poi le tante innovazioni che si possono usare con la 4090 ma non con la 3090ti.
3) a parità di costi del kWh sto risparmiando rispetto al mio sistema precedente con la 3090 circa 100 euro a bimestre e in un anno mi ci potrei comprare una 4070 e in due anni (il tempo di una generazione di VGA) me la ripago quasi completamente e scusate se è poco.
4) ormai ho più di cinquant'anni e da più di trenta gestisco casa mia e so che ciò che fa la differenza nella gestione familiare sono le spese ricorrenti e non quelle una tantum che tu programmi in anticipo.
5) non uso più programmi di benchmark perchè secondo la mia esperienza non ti fanno godere di quello che hai ma stai praticamente sempre a rincorrere i numeretti, la cosa importante secondo me è avere una esperienza fluida di gioco con tutte le impostazioni grafiche possibili al massimo.
Ovviamente liberissimi di non essere d'accordo con me e amici come prima :D :D :D :D :D .

amon.akira
26-03-2023, 20:42
no ma ognuno è liberissimo di fare ció che vuole, l importante è essere consapevoli di risparmiare il 50% di consumi perdendo il 35% di prestazioni, se avessi detto cosi dall inizio nemmeno avrei testato, altrimenti se mi dici che fai come me consumando la metà sarei un fesso a consumare il doppio se potessi accedere alle stesse prestazioni con un click, ti pare?

Iceman69
26-03-2023, 21:18
Mi pare, comunque, che il PL% consigliato per le 4090 reference sia 80, limitando praticamente a 360W e perdendo meno del 10%

Diciamo che l'ideale sarebbe riprendere gran parte di quello che si perde limitando il PL con l'overclock, così si prendono due piccioni con una fava.

Io ora sto testando la scheda a 2700Mhz con consumi sotto i 350w, se regge sono felice e contento. Non lo faccio per i consumi, ovviamente se volessi risparmiare non avrei comprato questa scheda, ma per la temperatura in vista dell'estate...

Ludus
26-03-2023, 21:24
Allora, l'ultimo mio messaggio sull'argomento visto che ho capito che io e tanti qui sul forum la pensiamo in maniera molto diversa.
1) sfido chiunque ad accorgersi della differenza tra 90 e 120 fps (senza i numeretti ovvio).
2) non è affatto vero che la 4090 limitata è equivalente a una 3090ti perchè c'è una differenza nell'efficienza tra le due che è abissale senza considerare poi le tante innovazioni che si possono usare con la 4090 ma non con la 3090ti.
3) a parità di costi del kWh sto risparmiando rispetto al mio sistema precedente con la 3090 circa 100 euro a bimestre e in un anno mi ci potrei comprare una 4070 e in due anni (il tempo di una generazione di VGA) me la ripago quasi completamente e scusate se è poco.
4) ormai ho più di cinquant'anni e da più di trenta gestisco casa mia e so che ciò che fa la differenza nella gestione familiare sono le spese ricorrenti e non quelle una tantum che tu programmi in anticipo.
5) non uso più programmi di benchmark perchè secondo la mia esperienza non ti fanno godere di quello che hai ma stai praticamente sempre a rincorrere i numeretti, la cosa importante secondo me è avere una esperienza fluida di gioco con tutte le impostazioni grafiche possibili al massimo.
Ovviamente liberissimi di non essere d'accordo con me e amici come prima :D :D :D :D :D .

100€ a bimestre solo se giochi 24/24 7/7 li risparmi se il delta consumo sono 100w.

davide155
26-03-2023, 21:54
.

3) a parità di costi del kWh sto risparmiando rispetto al mio sistema precedente con la 3090 circa 100 euro a bimestre e in un anno mi ci potrei comprare una 4070 e in due anni (il tempo di una generazione di VGA) me la ripago quasi completamente e scusate se è poco.

.

Salfox io ti voglio bene ma hai idea di quanti kwh siano 100euro di corrente di differenza?
O paghi la corrente tipo 1 euro l'ora, oppure quei 100euro sono imputabili ad altro.
La differenza di 200w su un consumo giornaliero di circa 5ore al giorno (di media) fa pochi euro di differenza a bimestre.
Come fai ad imputare alla sola gpu (che effettivamente a 0,5PL consuma meno della 3090) la differenza di costi?
Quando basta accendere il forno un paio di volte in più ed hai già 3kw di differenza ogni singola ora?
Senza polemica alcuna sia chiaro. Ma reputare la gpu colpevole (o meritevole) di una differenza di 100euro in bolletta mi sembra alquanto paradossale.

Cutter90
26-03-2023, 22:04
Allora, l'ultimo mio messaggio sull'argomento visto che ho capito che io e tanti qui sul forum la pensiamo in maniera molto diversa.
1) sfido chiunque ad accorgersi della differenza tra 90 e 120 fps (senza i numeretti ovvio).

Io me ne accorgo, proprio da 90 a 120. In un gioco come ACC te ne accorgi subito. E nel caso che sto affrontando io con Ghostwire Tokyo iniziato oggi? Con il pl normale vado a 65-70. Con il pl al 50 vado a 45-50. Anche qui non c'è differenza?
2) non è affatto vero che la 4090 limitata è equivalente a una 3090ti perchè c'è una differenza nell'efficienza tra le due che è abissale senza considerare poi le tante innovazioni che si possono usare con la 4090 ma non con la 3090ti.
3) a parità di costi del kWh sto risparmiando rispetto al mio sistema precedente con la 3090 circa 100 euro a bimestre e in un anno mi ci potrei comprare una 4070 e in due anni (il tempo di una generazione di VGA) me la ripago quasi completamente e scusate se è poco.
4) ormai ho più di cinquant'anni e da più di trenta gestisco casa mia e so che ciò che fa la differenza nella gestione familiare sono le spese ricorrenti e non quelle una tantum che tu programmi in anticipo.
5) non uso più programmi di benchmark perchè secondo la mia esperienza non ti fanno godere di quello che hai ma stai praticamente sempre a rincorrere i numeretti, la cosa importante secondo me è avere una esperienza fluida di gioco con tutte le impostazioni grafiche possibili al massimo.
Ah beh, allora metti dlss su perforamnce e limita gli fps a 60. Così saresti ancora più a posto :mbe:
Ovviamente liberissimi di non essere d'accordo con me e amici come prima :D :D :D :D :D .

Risparmiano 100- 150 watt di consumo rispetto alla 3090 o giochi 24/7 o c'è caso che l'esborso di 2000 tu non lo recupererai mai....
Salfox io ti voglio bene ma hai idea di quanti kwh siano 100euro di corrente di differenza?
O paghi la corrente tipo 1 euro l'ora, oppure quei 100euro sono imputabili ad altro.
La differenza di 200w su un consumo giornaliero di circa 5ore al giorno (di media) fa pochi euro di differenza a bimestre.
Come fai ad imputare alla sola gpu (che effettivamente a 0,5PL consuma meno della 3090) la differenza di costi?
Quando basta accendere il forno un paio di volte in più ed hai già 3kw di differenza ogni singola ora?
Senza polemica alcuna sia chiaro. Ma reputare la gpu colpevole (o meritevole) di una differenza di 100euro in bolletta mi sembra alquanto paradossale.

Ma infatti sta cosa non è il minimo senso. Poi, prima aveva la 3090? Anche con la 3090 si poteva andare tranquillamente a 400 watt o 350 watt perdendo nulla di perf. Ora con la 4090 va a 250, 300 ossia 100-150 watt in meno.... però intanto ha tirato fuori 2000 euro.

Cmq, ho finalmente provato il dldsr, che casta a fagiolo visto che sto facendo Ghostwire Tokyo. In 3240p (5760x3240) le performance con tutto al max sono piuttosto scarse. Ma attivando il dlss su qualità (aggiornato al 3.1.1) la resa è strabiliante. faccio 60-70 fps a seconda della zona e la definizione è incredibile. Molto molto meglio della nativa 4k. Pazzesco

davide155
26-03-2023, 22:15
Risparmiano 100- 150 watt di consumo rispetto alla 3090 o giochi 24/7 o c'è caso che l'esborso di 2000 tu non lo recupererai mai....





Ma infatti sta cosa non è il minimo senso. Poi, prima aveva la 3090? Anche con la 3090 si poteva andare tranquillamente a 400 watt o 350 watt perdendo nulla di perf. Ora con la 4090 va a 250, 300 ossia 100-150 watt in meno.... però intanto ha tirato fuori 2000 euro.



Cmq, ho finalmente provato il dldsr, che casta a fagiolo visto che sto facendo Ghostwire Tokyo. In 3240p (5760x3240) le performance con tutto al max sono piuttosto scarse. Ma attivando il dlss su qualità (aggiornato al 3.1.1) la resa è strabiliante. faccio 60-70 fps a seconda della zona e la definizione è incredibile. Molto molto meglio della nativa 4k. PazzescoL'accoppiata dldsr + dlss è quanto di meglio possa offrire oggi nvidia in termini di rapporto qualità/prestazioni.
Non è da sottovalutare anche il dlaa.
Ma il dldsr per me è una delle miglior invenzioni mai concepite negli ultimi anni.
La qualità finale è impressionante. Soprattutto se la si usa su pannelli già densi di natura.

Re-voodoo
26-03-2023, 22:16
Scusate se mi ripeto, ma per avere la massima efficienza energetica della 4090 basta limitare il PL al 50%, è il metodo dimostrato di gran lunga più efficiente, non state a provare overclock/undervolt che danno sempre problemi di stabiltà. Limitando il PL la scheda si autoregola e vi da sempre le massime prestazioni possibili con la potenza assegnata ma, cosa più importante, senza problemi di stabilità.

Modificando solo il pl cercando di avere le stesse prestazioni del uv consuma quasi 80w in più
L uv è molto più efficiente rispetto a limitare il pl almeno nel gioco che faccio io

Re-voodoo
26-03-2023, 22:20
E' una rogna il fatto che in undervolt almeno la mia non va sotto gli 0.895v sulla curva, nel senso che si possono impostare valori inferiori ma non vengono applicati.
Potete controllare le vostre se potete fare una curva che so a 0.800v@2400mhz?

Il minimo dovrebbe essere 0.875v

Cutter90
26-03-2023, 22:21
L'accoppiata dldsr + dlss è quanto di meglio possa offrire oggi nvidia in termini di rapporto qualità/prestazioni.
Non è da sottovalutare anche il dlaa.
Ma il dldsr per me è una delle miglior invenzioni mai concepite negli ultimi anni.
La qualità finale è impressionante. Soprattutto se la si usa su pannelli già densi di natura.

Giocare un gioco denso di RT come Ghostwire a 3240p ( esattamente a metà tra il 4k e l'8K) sopra i 60 fps è assurdo

djsnake
26-03-2023, 22:58
Risparmiano 100- 150 watt di consumo rispetto alla 3090 o giochi 24/7 o c'è caso che l'esborso di 2000 tu non lo recupererai mai....


Ma infatti sta cosa non è il minimo senso. Poi, prima aveva la 3090? Anche con la 3090 si poteva andare tranquillamente a 400 watt o 350 watt perdendo nulla di perf. Ora con la 4090 va a 250, 300 ossia 100-150 watt in meno.... però intanto ha tirato fuori 2000 euro.

Cmq, ho finalmente provato il dldsr, che casta a fagiolo visto che sto facendo Ghostwire Tokyo. In 3240p (5760x3240) le performance con tutto al max sono piuttosto scarse. Ma attivando il dlss su qualità (aggiornato al 3.1.1) la resa è strabiliante. faccio 60-70 fps a seconda della zona e la definizione è incredibile. Molto molto meglio della nativa 4k. Pazzesco

Mi accodo al tuo messaggio perché proprio da ieri mi stavo interessando a proposito dell'accoppiata dldsr + dlss. Scusate se posto domande banali ma essendo tornato a nvidia che da mercoledi le ultime tecnologie le conosco un po' meno (soprattutto zero esperienza diretta).
Ma quindi quando possibile l'accoppiata dldsr + dlss è da preferire?
Il dldsr l'ho testato (con immortal fenyx rising che sto giocando ora) ed è veramente un'ottima tecnologia che chiaramente fa perdere fps, ma a quanto leggo col dlss è anche meglio della nativa?

Quando parli di dlss aggiornato alla 3.1.1 intendi che hai sostituito la dll (conye avevo letto in giro) nei file del gioco?

Cutter90
27-03-2023, 06:09
Mi accodo al tuo messaggio perché proprio da ieri mi stavo interessando a proposito dell'accoppiata dldsr + dlss. Scusate se posto domande banali ma essendo tornato a nvidia che da mercoledi le ultime tecnologie le conosco un po' meno (soprattutto zero esperienza diretta).
Ma quindi quando possibile l'accoppiata dldsr + dlss è da preferire?
Il dldsr l'ho testato (con immortal fenyx rising che sto giocando ora) ed è veramente un'ottima tecnologia che chiaramente fa perdere fps, ma a quanto leggo col dlss è anche meglio della nativa?

Quando parli di dlss aggiornato alla 3.1.1 intendi che hai sostituito la dll (conye avevo letto in giro) nei file del gioco?

Si aggiornato manualmente la del
E si, in accoppata con il dlss il dldsr è incredibile. Perché il dlss su quality renderizza a 1.5 la res, quindi parte dal 2160p e upscala a 3240p (la risoluzione del dldsr). E il risultato è una nitidezza super con performance ottime

djsnake
27-03-2023, 07:34
Si aggiornato manualmente la del
E si, in accoppata con il dlss il dldsr è incredibile. Perché il dlss su quality renderizza a 1.5 la res, quindi parte dal 2160p e upscala a 3240p (la risoluzione del dldsr). E il risultato è una nitidezza super con performance ottime

Ok, grazie. Appena giocherò qualcosa dove siano attivabili entrambi, proverò

parcher
27-03-2023, 08:14
Sai perché insisto sulla cosa? Tu ti basi su dati di benchmark e sull'assorbimento della scheda che spesso, per esperienza diretta, non combaciano con l'uso effettivo nei giochi. Spesso alcuni giochi hanno assorbimenti senza senso ma poi se provi a limitare il PL, hai le stesse prestazioni consumando la metà.

Quoterrimo. 50% PL come impostazione desktop 2D e 3D base. Gira quasi tutto a 144 in 4k. Quando voglio spingere, dove c'e' la necessita, bastano altri due profili OC, per esempio,la mia Ichill 4090 monta delle memorie fortunelle (Overclock.net docet) e le tiro a mani basse a 1700.. un +160 sul core tocca i 3090mhz.. e una scheda troppo potente per quello che gira ancora oggi, tranne quei pochi titoli tripla A.. se poi vogliamo vedere i numeretti e' altro discorso..

igiolo
27-03-2023, 08:29
la mia Ichill 4090 monta delle memorie fortunelle (Overclock.net docet) e le tiro a mani basse a 1700.. un +160 sul core tocca i 3090mhz.. e una scheda troppo potente per quello che gira ancora oggi, tranne quei pochi titoli tripla A.. se poi vogliamo vedere i numeretti e' altro discorso..

:eek:

il core a 3090 con che pl?

Cutter90
27-03-2023, 08:59
Quoterrimo. 50% PL come impostazione desktop 2D e 3D base. Gira quasi tutto a 144 in 4k. Quando voglio spingere, dove c'e' la necessita, bastano altri due profili OC, per esempio,la mia Ichill 4090 monta delle memorie fortunelle (Overclock.net docet) e le tiro a mani basse a 1700.. un +160 sul core tocca i 3090mhz.. e una scheda troppo potente per quello che gira ancora oggi, tranne quei pochi titoli tripla A.. se poi vogliamo vedere i numeretti e' altro discorso..

Aleeee.... se parliamo di fifa e giochi indie con la grafica cartoon forse si. La maggioranza dei giochi "normali" con RT non arrivano nemmeno a 100 senza il dlss.... Anche sui 3090 mhz ho enormi dubbi

ROBHANAMICI
27-03-2023, 09:08
La inno3d ichill x3 ha il pl bloccato per via dei consumi limitati a 450w, avendo un gpu clock di 2235 mhz e un boost clock di 2580 mhz, per cui è matematicamente impossibile che sul gpu clock raggiunga i 3090 mhz con un +160, anche, ovviamente, per via del pl bloccato.

Dracula1975
27-03-2023, 10:45
Allora, l'ultimo mio messaggio sull'argomento visto che ho capito che io e tanti qui sul forum la pensiamo in maniera molto diversa.
1) sfido chiunque ad accorgersi della differenza tra 90 e 120 fps (senza i numeretti ovvio).
2) non è affatto vero che la 4090 limitata è equivalente a una 3090ti perchè c'è una differenza nell'efficienza tra le due che è abissale senza considerare poi le tante innovazioni che si possono usare con la 4090 ma non con la 3090ti.
3) a parità di costi del kWh sto risparmiando rispetto al mio sistema precedente con la 3090 circa 100 euro a bimestre e in un anno mi ci potrei comprare una 4070 e in due anni (il tempo di una generazione di VGA) me la ripago quasi completamente e scusate se è poco.
4) ormai ho più di cinquant'anni e da più di trenta gestisco casa mia e so che ciò che fa la differenza nella gestione familiare sono le spese ricorrenti e non quelle una tantum che tu programmi in anticipo.
5) non uso più programmi di benchmark perchè secondo la mia esperienza non ti fanno godere di quello che hai ma stai praticamente sempre a rincorrere i numeretti, la cosa importante secondo me è avere una esperienza fluida di gioco con tutte le impostazioni grafiche possibili al massimo.
Ovviamente liberissimi di non essere d'accordo con me e amici come prima :D :D :D :D :D .

Guarda non dubito della tua affermazione.

ma io lavoro per una azienda energetica al nord e ti invito a rivedere i tuoi "calcoli casalinghi" generali per i consumi perche' se risparmi 100 euro in due mesi vuole dire che o hai consumi di una centrale nucleare o sono totalmente sballati.


Saluti :D

Salfox
27-03-2023, 11:46
Guarda non dubito della tua affermazione.

ma io lavoro per una azienda energetica al nord e ti invito a rivedere i tuoi "calcoli casalinghi" generali per i consumi perche' se risparmi 100 euro in due mesi vuole dire che o hai consumi di una centrale nucleare o sono totalmente sballati.


Saluti :D

Guarda, dipende, come tu ben saprai, dal costo al kWh nel mio caso 0,30 €(io sono ingegnere elettrotecnico e sono stato nei progetti di molte centrali a ciclo combinato in Italia, praticamente fino a qualche anno fa ho vissuto in cantiere), ma ti basti sapere che ho sottomano le bollette di febbraio 22 (260 euro) e febbraio 23 (165 euro). Come dicevo in questi ultimi due anni abbiamo avuto poco lavoro e quindi sono stato quasi sempre a casa e il computer di giorno è praticamente sempre acceso, la differenza del consumo non può che essere dovuta al computer visto che non ho fatto nessuna altra modifica in casa. E scusami, ma c'è poco da fare ironia sulla cosa, non sai quanto è facile andare fuori controllo con i consumi, non te ne accorgi nemmeno e arrivi facilmente a pagare decine di euro in più ogni mese. Quindi lavorerai anche in una azienda del nord (non sai in quante ho lavorato io...) ma hai poco contatto con la realtà.

Saluti :D

Pucceddu
27-03-2023, 11:54
scheda montata, wb montato.
Va na bomba :D

Devo provà cyberpunk


1) sfido chiunque ad accorgersi della differenza tra 90 e 120 fps (senza i numeretti ovvio).

SEEEHEEHEhEHEHEheH sfida vintissima

micronauta1981
27-03-2023, 13:40
Quoterrimo. 50% PL come impostazione desktop 2D e 3D base. Gira quasi tutto a 144 in 4k. Quando voglio spingere, dove c'e' la necessita, bastano altri due profili OC, per esempio,la mia Ichill 4090 monta delle memorie fortunelle (Overclock.net docet) e le tiro a mani basse a 1700.. un +160 sul core tocca i 3090mhz.. e una scheda troppo potente per quello che gira ancora oggi, tranne quei pochi titoli tripla A.. se poi vogliamo vedere i numeretti e' altro discorso..
Cyberpunk tutto maxato raytracing folle,in 5k(dldsr) in certi punti arriva a 60 fps proprio tirati...(dlss qualità)

amon.akira
27-03-2023, 14:38
cmq giusto per puntualizzare, se un gioco è leggero consuma poco anche senza impostare il pl

mio settaggio che però mi para il culo da momenti piu intensi, potrebbe capitare una scena piu pesante e la scheda avrebbe accesso a piu risorse ed io non vedrei scatti o non dovrei rinunciare a dettagli.

224w uv+pl max

https://i.ibb.co/qsbSGpV/pl-max-uv.jpg (https://ibb.co/qsbSGpV)


219w stock pl 50%

https://i.ibb.co/WzcnDGZ/pl-50-stock.jpg (https://ibb.co/WzcnDGZ)


ho provato anche senza fps cap a 4k si ha 120fps vs 90 stessa scena con consumo 375w vs 225, -40% consumo e -25% fps

Cutter90
27-03-2023, 16:14
cmq giusto per puntualizzare, se un gioco è leggero consuma poco anche senza impostare il pl

mio settaggio che però mi para il culo da momenti piu intensi, potrebbe capitare una scena piu pesante e la scheda avrebbe accesso a piu risorse ed io non vedrei scatti o non dovrei rinunciare a dettagli.

224w uv+pl max

https://i.ibb.co/qsbSGpV/pl-max-uv.jpg (https://ibb.co/qsbSGpV)


219w stock pl 50%

https://i.ibb.co/WzcnDGZ/pl-50-stock.jpg (https://ibb.co/WzcnDGZ)


ho provato anche senza fps cap a 4k si ha 120fps vs 90 stessa scena con consumo 375w vs 225, -40% consumo e -25% fps

Ottima analisi, grazie. Ora il quadro è ancora più chiaro

marbasso
27-03-2023, 16:18
Il minimo dovrebbe essere 0.875v

Ma sei sicuro? Hai provato?
Forse va in base al clock.
Ora provo un 2300@0.875v.
Se provi e mi fai sapere mi fai un favore.
Grazie

parcher
27-03-2023, 16:48
:eek:

il core a 3090 con che pl?

Punta max a 3090 i 3030 ordinario in OC +160@1500 PL100%


La inno3d ichill x3 ha il pl bloccato per via dei consumi limitati a 450w, avendo un gpu clock di 2235 mhz e un boost clock di 2580 mhz, per cui è matematicamente impossibile che sul gpu clock raggiunga i 3090 mhz con un +160, anche, ovviamente, per via del pl bloccato.

Tengo tranquillamente il BIOS da 450 watt, sono rimasto colpito dalle recensioni..

https://www.eteknix.com/inno3d-rtx-4090-ichill-x3-oc-review/

https://www.tweaktown.com/reviews/10324/inno3d-geforce-rtx-4090-ichill-x3/index.html

oltre a leggere decine di pagine su (overclock.net.)

https://www.overclock.net/threads/official-nvidia-rtx-4090-owners-
club.1800847/page-498

Sulla 4090 rende piu avere una Vram veloce 1500/1700, che un + 50mhz sul core oltre il limite consentito dal proprio PL, detto questo ho flashato sia il bios da 550W MSI che quello da 660W Galax per avere solo un 30 MHz di differenza e consumi molto più alti, li ho superati i 450W altroché', ma di fps pochissima roba. Con +160/1500 vado forte e tocco i 3090 la punta max, i 3030 ordinaria amministrazione, scheda silenziosissima e fresca. Per un Daily use ho messo il Power limit al 50%, gira di tutto e di più.. appena posso faccio altri bench e posto i sensori di GPU-z at work..

NAP.
27-03-2023, 16:56
Allora con la mia 4080 ho provato di nuovo Resident evil 4 anche 9vecloccando di più il core ma avendo le memorie a default non ho riscontrato più quel problema di artefatti dopo quasi un'ora di gioco. Due cose: ho fatto una sessione più liscia non morendo e ricaricando il Gioco più volte e ho impostato un voltaggio fisso

sertopica
27-03-2023, 18:14
Allora con la mia 4080 ho provato di nuovo Resident evil 4 anche 9vecloccando di più il core ma avendo le memorie a default non ho riscontrato più quel problema di artefatti dopo quasi un'ora di gioco. Due cose: ho fatto una sessione più liscia non morendo e ricaricando il Gioco più volte e ho impostato un voltaggio fisso

Domanda, ma quando hai iniziato ad avere artefatti ti sforava il consumo di VRAM? No perche' ho visto che a sto gioco persino 16GB potrebbero andargli stretti se tiri i dettagli al massimo. Poi se non ricordo male tu utilizzi molto spesso res custom che potrebbero innalzare il consumo ancora di piu'...

Comunque, checche' siate stabili l'undervolt fa operare la scheda fuori specifica e prima o poi ci scappa il crash o subentrano altri tipi di problemi. Con Lovelace fra l'altro si consiglia di limitare il PL per lasciare alla scheda regolare i voltaggi.

amon.akira
27-03-2023, 18:46
l undervolt potresti lasciare il clock base del punto in questione oppure applicare un overclock del medesimo, come nel mio caso +210core, prima ero a +255core, cosi sono passati lisci requiem,spiderman,portal rtx...poi dead space era instabile e mi ha fatto scendere di 3step a 210, a 210 finito 2volte dead space e ora re4 remake tutto liscio...se un giorno ci sarà un gioco che ne evidenzierà l instabilità abbassero a 195 etc...a me nn costa nulla 2click ma per esperienza al 99% so che arriveró a blackwell cosi +210 +1500 senza crash :)

NAP.
27-03-2023, 20:49
Domanda, ma quando hai iniziato ad avere artefatti ti sforava il consumo di VRAM? No perche' ho visto che a sto gioco persino 16GB potrebbero andargli stretti se tiri i dettagli al massimo. Poi se non ricordo male tu utilizzi molto spesso res custom che potrebbero innalzare il consumo ancora di piu'...

Comunque, checche' siate stabili l'undervolt fa operare la scheda fuori specifica e prima o poi ci scappa il crash o subentrano altri tipi di problemi. Con Lovelace fra l'altro si consiglia di limitare il PL per lasciare alla scheda regolare i voltaggi.Non uso undervolt, potrebbe essere che sforo le specifiche di memoria e quindi crea problemi infatti in questo gioco l'overlay di afterburner cambia colore e diventa rosso il che è strano, potrebbe essere quella la causa

amon.akira
27-03-2023, 21:23
Non uso undervolt, potrebbe essere che sforo le specifiche di memoria e quindi crea problemi infatti in questo gioco l'overlay di afterburner cambia colore e diventa rosso il che è strano, potrebbe essere quella la causa

forse vedi l osd saturo perchè sei in hdr? :P

ginepraio
28-03-2023, 04:34
Che temperature avete a stock a pieno carico?
Mi spiego meglio. In casa ho 26 gradi , monto una msi gaming x trio 4080 in un case che non e' un campione di airflow , thermaltake divider 200tg (versione pero' air) . Ho fatto qualche prova in particolare con resident evil 4 , tutto maxato senza ray tracing ed ovviamente senza fsr. La gpu cosi' lavora al 99/100 e rimane spesso tra 90 e 100 fps . Segna dai 66 con picchi di 70/72 gradi ,ventole al 60/65% . Ora rispetto alla mia vecchia 3080 so bene che e' piu fresca , ma dai video in rete vedo temperature con gli stessi settaggi che vanno dai 61 ai 67 massimo. Qualcuno ha qualche esperienza simile?

NAP.
28-03-2023, 06:00
forse vedi l osd saturo perchè sei in hdr? :PNon ci avevo pensato, il colore può essere diverso per via di quello, stasera ho fatto due sessioni, come un'idiota non avevo salvato le impostazioni di overclock ieri e ho dovuto reinserirle, ho fatto una prima run ed è successo di nuovo il problema con gli artefatti. Poi ho abbassato un po' e fatto un'altra sessione più lunga e non è successo niente, però c'è da dire che prima quando mi succedeva di essere instabile i driver crashavano e buonanotte, ritornavo a desktop, adesso succede sta cosa strana, ma non sono nemmeno artefatti, è come se tutto diventasse sgranato, boh, secondo me è colpa del gioco non della scheda

NAP.
28-03-2023, 06:05
Che temperature avete a stock a pieno carico?
Mi spiego meglio. In casa ho 26 gradi , monto una msi gaming x trio 4080 in un case che non e' un campione di airflow , thermaltake divider 200tg (versione pero' air) . Ho fatto qualche prova in particolare con resident evil 4 , tutto maxato senza ray tracing ed ovviamente senza fsr. La gpu cosi' lavora al 99/100 e rimane spesso tra 90 e 100 fps . Segna dai 66 con picchi di 70/72 gradi ,ventole al 60/65% . Ora rispetto alla mia vecchia 3080 so bene che e' piu fresca , ma dai video in rete vedo temperature con gli stessi settaggi che vanno dai 61 ai 67 massimo. Qualcuno ha qualche esperienza simile?A me è liquididata in una configurazione che non è il massimo dell'airflow/massa radiante e sto intorno ai 50 gradi. Gioco Resident Evil 4 tutto maxato, con ray tracing al massimo, 4k e niente fsr o simili, framerate cappato a 60fps. Il gioco va una spada sto tra il 50/70 % di utilizzo a seconda delle scene. Non capisco nemmeno da dove provengono questi artefatti improvvisi, non succede con nessun altro gioco, nessuno, anche più pesanti, metro exodus, witcher 3 remaster, bright memory infinite, niente nada nicht

Iceman69
28-03-2023, 07:25
A me è liquididata in una configurazione che non è il massimo dell'airflow/massa radiante e sto intorno ai 50 gradi. Gioco Resident Evil 4 tutto maxato, con ray tracing al massimo, 4k e niente fsr o simili, framerate cappato a 60fps. Il gioco va una spada sto tra il 50/70 % di utilizzo a seconda delle scene. Non capisco nemmeno da dove provengono questi artefatti improvvisi, non succede con nessun altro gioco, nessuno, anche più pesanti, metro exodus, witcher 3 remaster, bright memory infinite, niente nada nicht

Con questa serie 4000 direi che gli artefatti siano tutta colpa dell'overclock della memoria, il core fa bloccare, ma non dà artefatti (almeno a me).
Quindi tieni a default la memoria e vivi felice.
Io una 3080 la ho fritta overclockando troppo la memoria, quindi ora ci vado con i guanti di velluto, al primo artefatto la riporto giù...

ROBHANAMICI
28-03-2023, 08:06
Punta max a 3090 i 3030 ordinario in OC +160@1500 PL100%




Tengo tranquillamente il BIOS da 450 watt, sono rimasto colpito dalle recensioni..

https://www.eteknix.com/inno3d-rtx-4090-ichill-x3-oc-review/

https://www.tweaktown.com/reviews/10324/inno3d-geforce-rtx-4090-ichill-x3/index.html

oltre a leggere decine di pagine su (overclock.net.)

https://www.overclock.net/threads/official-nvidia-rtx-4090-owners-
club.1800847/page-498

Sulla 4090 rende piu avere una Vram veloce 1500/1700, che un + 50mhz sul core oltre il limite consentito dal proprio PL, detto questo ho flashato sia il bios da 550W MSI che quello da 660W Galax per avere solo un 30 MHz di differenza e consumi molto più alti, li ho superati i 450W altroché', ma di fps pochissima roba. Con +160/1500 vado forte e tocco i 3090 la punta max, i 3030 ordinaria amministrazione, scheda silenziosissima e fresca. Per un Daily use ho messo il Power limit al 50%, gira di tutto e di più.. appena posso faccio altri bench e posto i sensori di GPU-z at work..


Vada per l'oc sulle ram (al limite se le spingi troppo noterai degli artefatti nei vari utilizzi e basta che lo limiti un pò) ma te ne è valsa la pena spingere così la tua gpu sul core clock? Io francamente non forzerei una scheda che ha degli evidenti limiti di fabbrica, come la inno3d, con bios molto più pompati, anche per una questione di distribuzione del carico di consumi sul cavo/sui cavi della gpu (ora non so se hai una psu atx 3.0 nativa, o un 2.0, con cavo 12+4 2x8 pin o il famoso "polipo"). Soprattutto adesso che con l'avvicinarsi della bella stagione e delle alte temperature la scheda andrà senz'altro meno, scaldando di più. Sono convinto che in questi mesi non riuscirai a toccarle quelle frequenze. Imho manterrei la scheda così com'e', senza dilettarmi tanto in queste pratiche, soprattutto nei mesi più caldi (ovviamente, almeno, che non sei a liquido, allora li è un altro discorso).

sertopica
28-03-2023, 08:10
^ Non solo quello, anche le power phases non sono le stesse di altri modelli che hanno il PL sbloccato.
Con questa serie 4000 direi che gli artefatti siano tutta colpa dell'overclock della memoria, il core fa bloccare, ma non dà artefatti (almeno a me).
Quindi tieni a default la memoria e vivi felice.
Io una 3080 la ho fritta overclockando troppo la memoria, quindi ora ci vado con i guanti di velluto, al primo artefatto la riporto giù...
Come hai fatto a friggere i chip? Li hai overvoltati o le temperature erano fuori controllo?
l undervolt potresti lasciare il clock base del punto in questione oppure applicare un overclock del medesimo, come nel mio caso +210core, prima ero a +255core, cosi sono passati lisci requiem,spiderman,portal rtx...poi dead space era instabile e mi ha fatto scendere di 3step a 210, a 210 finito 2volte dead space e ora re4 remake tutto liscio...se un giorno ci sarà un gioco che ne evidenzierà l instabilità abbassero a 195 etc...a me nn costa nulla 2click ma per esperienza al 99% so che arriveró a blackwell cosi +210 +1500 senza crash :)
Certo. E' che a volte diventa un po' una rottura dover ritestare tutto, almeno per me. Poi visti i giochi strabuggati degli ultimi tempi non sai mai se sei tu a essere instabile o se e' il codice del gioco/windows/driver video. :D

Potresti dirmi cortesemente, quanto hai guadagnato in fps portando le memorie a +1500?
Non uso undervolt, potrebbe essere che sforo le specifiche di memoria e quindi crea problemi infatti in questo gioco l'overlay di afterburner cambia colore e diventa rosso il che è strano, potrebbe essere quella la causa
Mmmh. Capito, giusto per controllare vedi che sfori i 16GB e se subentrano glitch grafici.

igiolo
28-03-2023, 08:11
io ho la versione OC non ichill
mai capito che cambi (forse il dissipatore credo)

ROBHANAMICI
28-03-2023, 08:28
^ Non solo quello, anche le power phases non sono le stesse di altri modelli che hanno il PL sbloccato.


Anche si :)

micronauta1981
28-03-2023, 11:13
^ Non solo quello, anche le power phases non sono le stesse di altri modelli che hanno il PL sbloccato.

Come hai fatto a friggere i chip? Li hai overvoltati o le temperature erano fuori controllo?

Certo. E' che a volte diventa un po' una rottura dover ritestare tutto, almeno per me. Poi visti i giochi strabuggati degli ultimi tempi non sai mai se sei tu a essere instabile o se e' il codice del gioco/windows/driver video. :D

Potresti dirmi cortesemente, quanto hai guadagnato in fps portando le memorie a +1500?

Mmmh. Capito, giusto per controllare vedi che sfori i 16GB e se subentrano glitch grafici.varia da gioco a gioco,ma più o meno @1500 guadagni un 5%

NAP.
28-03-2023, 12:22
Con questa serie 4000 direi che gli artefatti siano tutta colpa dell'overclock della memoria, il core fa bloccare, ma non dà artefatti (almeno a me).

Quindi tieni a default la memoria e vivi felice.

Io una 3080 la ho fritta overclockando troppo la memoria, quindi ora ci vado con i guanti di velluto, al primo artefatto la riporto giù...Infatti le ho messe a default ma ancora si ripresentano apparentemente a random, anche se sembra andare meglio, il fatto è che succede solo con questo gioco perche cmq usa tanta memoria credo

h.rorschach
28-03-2023, 12:50
Durante i miei smanettamenti con la 4080 posso dire che è stabile (senza artefatti) fino a +800MHz sulla VRAM; a +1000MHz inizia a sclerare. Le 40 hanno poco margine, con la 3060Ti ero a +1200MHz...

Predator_1982
28-03-2023, 13:07
Infatti le ho messe a default ma ancora si ripresentano apparentemente a random, anche se sembra andare meglio, il fatto è che succede solo con questo gioco perche cmq usa tanta memoria credo

io credo che tu abbia qualche parte della memoria fallata e quando la usi ti appare l'artefatto, soprattutto se succede anche @default.

Per curiosità, se attivi la correzione ECC sul pannello dei drivers ti succede uguale?

ROBHANAMICI
28-03-2023, 13:23
Se hai artefatti a default, in effetti, non è molto normale, io in resident evil 4 non ho problemi di artefatti nè con memorie non overcloccate che overcloccate. Devi vedere l'occupazione della vram della tua scheda in game, anche se con una 4090/4080 non dovresti avere problemi del genere (magari se hai una 4080 non spararle al massimo le impostazioni in game). Al limite hai la possibilità di fare il reso e di fartela sostituire la scheda?

Cutter90
28-03-2023, 13:44
Su ghostwire tokyo ieri mi sono dilettato con UV visto che è un gioco pensante e mi pare sia molto sensibile. Ho trovato la stabilità a +1300 sulle memorie e a 2880 mhz a 1 millivolt. 50 gradi costanti con la gpu al 99%

amon.akira
28-03-2023, 14:08
Certo. E' che a volte diventa un po' una rottura dover ritestare tutto, almeno per me. Poi visti i giochi strabuggati degli ultimi tempi non sai mai se sei tu a essere instabile o se e' il codice del gioco/windows/driver video. :D

Potresti dirmi cortesemente, quanto hai guadagnato in fps portando le memorie a +1500?


penso che al 90% sei sempre tu(noi), ne leggo praticamente su tutti i giochi su steam, non esiste un gioco dove la genti non crashi...sicuramente la maggior parte avranno oc instabili specialmente sulle cpu, dove in un gioco va bene e in un altro no. La gpu è relativamente facile, poi la cpu e infine la ram, ma anche li una volta fatto resta cosi, che poi è il gioco nel gioco...ottimizzare al meglio :P

discorso vram 1500, qualcosa in piu sicuramente la da, non ho fatto paragoni ingame, solo all inizio appena presa su 3dmark, personalmente lo messa cosi per avere giusto 24gbps (4090ti like ^^)...come con la 3090 la misi a +750 per fare 21gbps o la 3080 a +500 20gbps

NAP.
28-03-2023, 14:58
Ma perché mi capita solo con questo gioco è la mia domanda

Gilgamessh
28-03-2023, 15:18
io con ventole a 58% e 1100 mem, 1950 a 1.025 sto a 61 gradi con ghost.

Su ghostwire tokyo ieri mi sono dilettato con UV visto che è un gioco pensante e mi pare sia molto sensibile. Ho trovato la stabilità a +1300 sulle memorie e a 2880 mhz a 1 millivolt. 50 gradi costanti con la gpu al 99%

Cutter90
28-03-2023, 15:31
io con ventole a 58% e 1100 mem, 1950 a 1.025 sto a 61 gradi con ghost.

2950 volevi dire? Non mi sono spinto oltre per ora

Gilgamessh
28-03-2023, 15:36
2950 volevi dire? Non mi sono spinto oltre per ora

si certo scusa, però ho visto da altri che si spinge ben oltre i 3000.

Cutter90
28-03-2023, 15:52
si certo scusa, però ho visto da altri che si spinge ben oltre i 3000.

beh ma ci sta. Io ci arrivo a 3050. Ma non di certo sotto i volt stock. Sotto 1.050 è impossibile arrivare a 3000, per lo meno in Ghostwire, ma penso pure in generale

DJurassic
28-03-2023, 15:54
A proposito di RE4 Remake, il DLSS injected funziona che è una bellezza restituendo immagini superiore alla res nativa. Nemmeno a dirlo pialla completamente l'FSR incluso nel gioco.

https://i.ibb.co/HCJm9NP/13900-KF-def-Cinebench-ST-2.png

https://twitter.com/Dachsjaeger/status/1640625886037721090

Potete scaricare il tweak da qui:

https://www.dsogaming.com/mods/resident-evil-4-remake-mods-add-dlss-2-and-rpg-like-health-bars/

ROBHANAMICI
28-03-2023, 15:56
Ma perché mi capita solo con questo gioco è la mia domanda



Dalla "regia" consigliano di provare anche callisto protocol e hogwarts legacy, altri due giochi "vram intensive" non so se ci hai già giocato magari.

h.rorschach
28-03-2023, 16:22
Penso sia ormai assodato ed accettato che DLSS è magia nera nelle iterazioni recenti

goma76
28-03-2023, 16:42
A proposito di RE4 Remake, il DLSS injected funziona che è una bellezza restituendo immagini superiore alla res nativa. Nemmeno a dirlo pialla completamente l'FSR incluso nel gioco.

https://i.ibb.co/HCJm9NP/13900-KF-def-Cinebench-ST-2.png

https://twitter.com/Dachsjaeger/status/1640625886037721090

Potete scaricare il tweak da qui:

https://www.dsogaming.com/mods/resident-evil-4-remake-mods-add-dlss-2-and-rpg-like-health-bars/
Ennesima dimostrazione, che il DLSS migliora la qualità d'immagine, però non voglio riaccendere le solite discussioni, ognuno la pensi come vuole.

mikael84
28-03-2023, 16:51
Durante i miei smanettamenti con la 4080 posso dire che è stabile (senza artefatti) fino a +800MHz sulla VRAM; a +1000MHz inizia a sclerare. Le 40 hanno poco margine, con la 3060Ti ero a +1200MHz...

La 3060ti è g6 liscia non x.
Il problema della 4080 in generale è che monta ram da 21, binnate a 24. infatti, neppure lo garantiscono e le impostano a 22,4. Quindi è per quello che salgono meno delle 4090. Anche se ovviamente in media, avranno una banda più ampia, essendo più binnate delle 21 classiche. Praticamente parti da +700.

h.rorschach
28-03-2023, 16:55
La 3060ti è g6 liscia non x.
Il problema della 4080 in generale è che monta ram da 21, binnate a 24. infatti, neppure lo garantiscono e le impostano a 22,4. Quindi è per quello che salgono meno delle 4090. Anche se ovviamente in media, avranno una banda più ampia, essendo più binnate delle 21 classiche. Praticamente parti da +700.

Ci sta. Onestamente ho visto guadagni talmente risibili (5%) per il 15% in più dei consumi che ho lasciato perdere, non conviene.

igiolo
28-03-2023, 17:13
Dalla "regia" consigliano di provare anche callisto protocol e hogwarts legacy, altri due giochi "vram intensive" non so se ci hai già giocato magari.

concordo
sono ottimi vram test
specie hogw. senza patch

ahahaha

Iceman69
28-03-2023, 17:59
Infatti le ho messe a default ma ancora si ripresentano apparentemente a random, anche se sembra andare meglio, il fatto è che succede solo con questo gioco perche cmq usa tanta memoria credo

Allora la probabilità che si sia rovinata la RAM è elevata, se puoi fare un reso è meglio che la cambi ...

Salfox
28-03-2023, 18:08
Allora la probabilità che si sia rovinata la RAM è elevata, se puoi fare un reso è meglio che la cambi ...

Ecco perchè io le ram preferisco non toccarle proprio, già a default scaldano tantissimo figurati overcloccate, ma poi vale la pena overcloccarle per guadagnare 5 fps su 120? Mah io non capisco proprio :confused: :confused: :confused:

StrixyRoG
28-03-2023, 18:15
Più che altro non capisco perché andare a toccare schede che già di loro vanno alla grande, per la prima volta dopo tanto tempo. Al massimo si abbassa il PL se proprio si voglia qualche watt in meno, e via.

Predator_1982
28-03-2023, 18:26
Ma perché mi capita solo con questo gioco è la mia domanda

hai provato con ECC attivo?

sertopica
28-03-2023, 21:25
penso che al 90% sei sempre tu(noi), ne leggo praticamente su tutti i giochi su steam, non esiste un gioco dove la genti non crashi...sicuramente la maggior parte avranno oc instabili specialmente sulle cpu, dove in un gioco va bene e in un altro no. La gpu è relativamente facile, poi la cpu e infine la ram, ma anche li una volta fatto resta cosi, che poi è il gioco nel gioco...ottimizzare al meglio :P

discorso vram 1500, qualcosa in piu sicuramente la da, non ho fatto paragoni ingame, solo all inizio appena presa su 3dmark, personalmente lo messa cosi per avere giusto 24gbps (4090ti like ^^)...come con la 3090 la misi a +750 per fare 21gbps o la 3080 a +500 20gbps

La vedo anche io cosi'. Pensa che per anni credevo avessi la CPU stabile con un voltaggio adeguato ed invece su un gioco soltanto (Hogwarts Legacy) ottenevo un errore mai avuto chiamato internal parity error a random sui cores della cpu. Veniva corretto automaticamente ma sempre un whea error era. Alzando il vcore e' finalmente sparito. Ma a volte sono anche problemi di driver o i giochi stessi a non andare come dovrebbero. Diciamo un 70/30%? Insomma, lo user error e' sempre dietro l'angolo. :D

Per la RAM chiedevo perche' io con un +1500 ottengo circa 6-7 fps su alcuni titoli che male non fanno. Soprattutto i pochi titoli in path tracing traggono molto giovamento dall'OC delle RAM. In quanto a temperature la memory junction sta intorno ai 72 gradi, l'hotspot a 80, ma da qualche parte ho letto che il sensore delle memorie da' risultati sballati... Ma e' vero? :mbe:

Sto divagando... :asd:

Per quanto riguarda il problema di NAP, potrebbe anche essere che i pad termici non sono posizionati a dovere e fanno surriscaldare alcuni dei chip causando artefatti? Io comunque un RMA lo farei.

amon.akira
28-03-2023, 22:45
Per la RAM chiedevo perche' io con un +1500 ottengo circa 6-7 fps su alcuni titoli che male non fanno. Soprattutto i pochi titoli in path tracing traggono molto giovamento dall'OC delle RAM. In quanto a temperature la memory junction sta intorno ai 72 gradi, l'hotspot a 80, ma da qualche parte ho letto che il sensore delle memorie da' risultati sballati... Ma e' vero? :mbe:

Sto divagando... :asd:


ma si, su lovelace vanno molto meglio le mem, i 100gradi sono un lontano ricordo...qui tipo 70credo di aver visto al max

se reggono tienile cosi, tanto non stai overvoltandole...a me tipo crashano superati i 1700+, l ho scoperto spingendo al 3dmark

Cutter90
28-03-2023, 23:03
Ecco perchè io le ram preferisco non toccarle proprio, già a default scaldano tantissimo figurati overcloccate, ma poi vale la pena overcloccarle per guadagnare 5 fps su 120? Mah io non capisco proprio :confused: :confused: :confused:

Rispetto alla serie 3000 le ram hanno perso anche 20 gradi altroché tantissimo. Inoltre dai test fatti abbiamo dimostrato che aumentano di 2 grado se occate, quindi è di fatto irrilevante

NAP.
29-03-2023, 00:42
Io continuo a dire che è il gioco non la scheda

marbasso
29-03-2023, 06:53
Fatto altri test, la vga in idle sta a 0.884v, e impostando un undervolt a meno di 0.895v non va. Alla fine sui giochi pesanti e bench regge il clock default di 2865mhz con 0.975v. ho fatto un profilo da 2630mhz@0.895v con pl al 45% e va bene così, tanto si dead space senza dlss son sempre sopra i 100fps. Consumo siamo circa sui 200w.
Ho anche fatto un profilo con il solo pl impostato al 50% ma a me pare troppo altalenante sia il voltaggio che il consumo.

Salfox
29-03-2023, 07:52
Ho anche fatto un profilo con il solo pl impostato al 50% ma a me pare troppo altalenante sia il voltaggio che il consumo.

Quello è proprio il comportamento della scheda che si autoregola limitando il PL, ma lo fa sempre non superando mai il limite imposto da te. :D :D

Alekos Panagulis
29-03-2023, 07:55
Qualche commento su The last of us?

Inviato dal mio CPH2305 utilizzando Tapatalk

Cutter90
29-03-2023, 07:58
Qualche commento su The last of us?

Inviato dal mio CPH2305 utilizzando Tapatalk

Che l'ho gia giocato su ps3 e su ps4. Anche basta :rolleyes:

Sembra un buon porting, anche se dai test che ho visto ha un utliizzo folle della cpu per il tipo di gioco, anche se con RT sarebbe stato da paura viste le atmosfere

Ma che gli prende ai giochi recenti? Cioè, ora se non hai una cpu top ti segano le gambe sti giochi. TLOU poi non ha nemmeno il RT come scusa per consumarla. Anche la RAM improvvisiamente è diventata molto pesante. MA che problema hanno?

davide155
29-03-2023, 07:59
Io continuo a dire che è il gioco non la schedaTutto può essere.
Certo c'è da dire che se te lo fa solo su una applicazione 3d e basta è alquanto strano.
Provato svariati giochi? Svariati bench?
Provato con e senza dlss? Provato a tornare indietro di driver?
Provato a cambiare uscita video o addirittura monitor? Semmai attaccala alla tv del salotto. Provato il programma msi kombustor dove ti segnala gli errori delle memorie?
Provato a montarla su un altro sistema? Da un amico semmai.

Prima di rimandare la scheda indietro e metterla all'anima dei corrieri io vorrei esser certo che sia lei il problema.

Salfox
29-03-2023, 08:27
Qualche commento su The last of us?

Inviato dal mio CPH2305 utilizzando Tapatalk

L'ho visto brevemente stamattina e devo dire che non mi ha deluso, il gioco è molto interessante, graficamente superbo e sulla mia configurazione gira a 80 FPS fissi bloccati da me con il solito PL al 50%. Ho impostato tutto al massimo e DLSS Qualità. La prima volta che ci giochi ci mette più di venti minuti per eseguire la compilazione shader ma volevo avvertire quelli che hanno meno di 16 gb di memoria video che avrete grossi problemi per farlo girare con impostazioni ultra visto che sulla mia configurazione mi dava un occupazione della memoria di 15 gb. Ho letto infatti che su steam moltissimi si lamentano delle prestazioni ma credo che il tutto sia dovuto alla poca memoria video. La vedo proprio male per quelli che hanno la 3080. stasera lo proverò più a fondo.

Alekos Panagulis
29-03-2023, 09:11
Che l'ho gia giocato su ps3 e su ps4. Anche basta :rolleyes:

Sembra un buon porting, anche se dai test che ho visto ha un utliizzo folle della cpu per il tipo di gioco, anche se con RT sarebbe stato da paura viste le atmosfere

Ma che gli prende ai giochi recenti? Cioè, ora se non hai una cpu top ti segano le gambe sti giochi. TLOU poi non ha nemmeno il RT come scusa per consumarla. Anche la RAM improvvisiamente è diventata molto pesante. MA che problema hanno?

Pare che sia un porting fatto con i piedi.
Infatti è di Iron Galaxy, gli stessi che hanno fatto Gotham Knigths, una vera schifezza.
Non capisco perché Sony non abbia commissionato ai propri developer di Nixxes, che hanno fatto lavori eccellenti. Probabilmente Iron Galaxy gli ha fatto un prezzo stracciato e il risultato si vede.

Alekos Panagulis
29-03-2023, 09:12
L'ho visto brevemente stamattina e devo dire che non mi ha deluso, il gioco è molto interessante, graficamente superbo e sulla mia configurazione gira a 80 FPS fissi bloccati da me con il solito PL al 50%. Ho impostato tutto al massimo e DLSS Qualità. La prima volta che ci giochi ci mette più di venti minuti per eseguire la compilazione shader ma volevo avvertire quelli che hanno meno di 16 gb di memoria video che avrete grossi problemi per farlo girare con impostazioni ultra visto che sulla mia configurazione mi dava un occupazione della memoria di 15 gb. Ho letto infatti che su steam moltissimi si lamentano delle prestazioni ma credo che il tutto sia dovuto alla poca memoria video. La vedo proprio male per quelli che hanno la 3080. stasera lo roverò più a fondo.

Ma il DLSS c'è? Mi sembra che ci sia solo l'FSR, ahimé.

Salfox
29-03-2023, 09:18
Ma il DLSS c'è? Mi sembra che ci sia solo l'FSR, ahimé.

Scusa, certo che c'è e se ti ho detto che l'ho messo su qualità perchè me lo chiedi? In ogni caso, non so se è per la mia configurazione ma non sono affatto d'accordo con le critiche che sta ricevendo, il gioco gira benissimo senza alcuna incertezza e anche se la grafica non è all'ultimo grido è comunque curatissima poi il gioco è davvero bello da giocare.

sertopica
29-03-2023, 09:21
Scusa, certo che c'è e se ti ho detto che l'ho messo su qualità perchè me lo chiedi? In ogni caso, non so se è per la mia configurazione ma non sono affatto d'accordo con le critiche che sta ricevendo, il gioco gira benissimo senza alcuna incertezza e anche se la grafica non è all'ultimo grido e comunque curatissima poi il gioco è davvero bello da giocare.

Gira benissimo perche' qua sono tutti carrozzati con HW top. :D

Bisogna vedere se scala bene anche per il restante 99% della popolazione hehe.

Comunque come sempre meglio aspettare un paio di mesi cosi' che venga, si spera, patchato. Poi a quel prezzo di vendita il discorso vale ancora di piu'.

Alekos Panagulis
29-03-2023, 09:25
Scusa, certo che c'è e se ti ho detto che l'ho messo su qualità perchè me lo chiedi? In ogni caso, non so se è per la mia configurazione ma non sono affatto d'accordo con le critiche che sta ricevendo, il gioco gira benissimo senza alcuna incertezza e anche se la grafica non è all'ultimo grido e comunque curatissima poi il gioco è davvero bello da giocare.

Ho chiesto solo per aver conferma, avevo letto che ci fosse solo FSR ma evidentemente ho letto male. Non c'è bisogno di scaldarsi :)

Tu hai una config ultra high-end, quindi non fai testo. Le critiche vengono dalla massa dei giocatori su Steam, che hanno build di fascia media o bassa.
Un utente ci ha messo 5 ore a fare la compilazione degli shaders con un Ryzen 2600...neanche tanto vecchio.

h.rorschach
29-03-2023, 09:28
Ma il DLSS c'è? Mi sembra che ci sia solo l'FSR, ahimé.

DLSS c'è. È assente in alcune versioni piratate. Non specifico quali.

sertopica
29-03-2023, 09:28
Ho chiesto solo per aver conferma, avevo letto che ci fosse solo FSR ma evidentemente ho letto male. Non c'è bisogno di scaldarsi :)

Tu hai una config ultra high-end, quindi non fai testo. Le critiche vengono dalla massa dei giocatori su Steam, che hanno build di fascia media o bassa.
Un utente ci ha messo 5 ore a fare la compilazione degli shaders con un Ryzen 2600...neanche tanto vecchio.

Neanche lo giochi e hai gia' superato il limite per il refund. :asd: :asd:

edit:

https://i.imgur.com/0oYBn0e.jpg

:sbonk:

mattxx88
29-03-2023, 09:31
Neanche lo giochi e hai gia' superato il limite per il refund. :asd: :asd:

edit:

https://i.imgur.com/0oYBn0e.jpg

:sbonk:

:asd:

https://www.reddit.com/r/thelastofus/comments/1250dn7/psa_for_tlou_p1_pc_port_uses_a_bugged_version_of/

h.rorschach
29-03-2023, 09:34
Come dicevo in un altro thread,

Il problema dello stuttering è dovuto ad una DLL di OOdle vetusta; va sostituita con una più recente per risolvere sia il memory leak, sia gli eccessivi tempi di compilazione degli shader. La DLL aggiornata (oo2core_9_win64.dll) si può prendere da una installazione esistente di FIFA 23, Destiny 2, o Warframe (quest'ultimo gratis su Steam). Ctrl+C, Ctrl+V nella cartella di TLOU1 e i problemi sono risolti

Il problema del mouse lag può essere risolto disabilitando il raw input in gioco, ma non è una cosa che affligge molti utenti

Il problema di DLSS mancante nelle opzioni è solo presente in una delle tre versioni non legit, e non affligge la versione legit su Steam

Il gioco NON ha nessun DRM al momento e anche solo per questo sono infinitamente grato a Naughty Dog, posto che non sia uno sbaglio

sertopica
29-03-2023, 09:35
:asd:

https://www.reddit.com/r/thelastofus/comments/1250dn7/psa_for_tlou_p1_pc_port_uses_a_bugged_version_of/

Rilancio. :O

https://twitter.com/Sebasti66855537/status/1640880981992259587?s=20

mattxx88
29-03-2023, 09:36
Rilancio. :O

https://twitter.com/Sebasti66855537/status/1640880981992259587?s=20

mado che bordello, aspettiamo qualche patch insomma, stiamo prima che a seguire vari workaround

bagnino89
29-03-2023, 09:39
Un utente ci ha messo 5 ore a fare la compilazione degli shaders con un Ryzen 2600...neanche tanto vecchio.

Se vero, non ho parole.

sertopica
29-03-2023, 09:47
mado che bordello, aspettiamo qualche patch insomma, stiamo prima che a seguire vari workaround

Il gaming su PC ormai e' composto da 3/4 di troubleshooting passato sui forum ed il poco tempo restante a giocare. :D

EDIT: posto per chi fosse interessato un'intervista a Jakub Knapic, Global Art Director per CP 2077 sull'overdrive mode.

Link: https://youtu.be/cr9ZPRKm9dU

Sara' una tech preview, quindi ancora un work in progress (e qua gia' un bel lol ci sta), e servira' un PC decisamente potente per farla girare.

Salfox
29-03-2023, 10:10
Ho chiesto solo per aver conferma, avevo letto che ci fosse solo FSR ma evidentemente ho letto male. Non c'è bisogno di scaldarsi :)

Tu hai una config ultra high-end, quindi non fai testo. Le critiche vengono dalla massa dei giocatori su Steam, che hanno build di fascia media o bassa.
Un utente ci ha messo 5 ore a fare la compilazione degli shaders con un Ryzen 2600...neanche tanto vecchio.

Mica mi ero scaldato :D ti ho solo ribadito che c'è il DLSS come avevo già fatto. Comunque sarei curioso di vederlo girare su altre configurazioni mi sembra strano che questa volta Sony abbia cannato visto che fino ad ora i suoi giochi (e secondo me incluso questo) sono sempre stati ottimi come ottimizzazione.

EDIT:
ho visto ora il post di Sertopica e vi confermo che nel mio caso la compilazione shader (venti minuti per me) l'ha fatta nel menù principale esattamente come era per Uncharted 4 con l'indicatore in basso a dx, non capisco cosa sono quegli screenshot con la compilazione in sovraimpressione ?????
Ah poi, mai avuto problemi di dll vecchia come riportato da h.rorschach

igiolo
29-03-2023, 10:13
Pare che sia un porting fatto con i piedi.
Infatti è di Iron Galaxy, gli stessi che hanno fatto Gotham Knigths, una vera schifezza.
Non capisco perché Sony non abbia commissionato ai propri developer di Nixxes, che hanno fatto lavori eccellenti. Probabilmente Iron Galaxy gli ha fatto un prezzo stracciato e il risultato si vede.

*

bagnino89
29-03-2023, 10:15
Pare che sia un porting fatto con i piedi.
Infatti è di Iron Galaxy, gli stessi che hanno fatto Gotham Knigths, una vera schifezza.
Non capisco perché Sony non abbia commissionato ai propri developer di Nixxes, che hanno fatto lavori eccellenti. Probabilmente Iron Galaxy gli ha fatto un prezzo stracciato e il risultato si vede.

Però Iron Galaxy dovrebbe aver sviluppato anche Uncharted 4, che era fatto bene... Comunque che piega imbarazzante gli ultimi giochi su PC, pare che senza una 4090 non si riesca più a giocare dignitosamente.

sertopica
29-03-2023, 10:23
EDIT:
ho visto ora il post di Sertopica e vi confermo che nel mio caso la compilazione shader (venti minuti per me) l'ha fatta nel menù principale esattamente come era per Uncharted 4 con l'indicatore in basso a dx, non capisco cosa sono quegli screenshot con la compilazione in sovraimpressione ?????
Ah poi, mai avuto problemi di dll vecchia come riportato da h.rorschach
Ma lol!

E' un meme quello. :asd: :asd:

Le immagini sono tratte da una scena della serie televisiva di HBO basata sul gioco. Se non l'hai vista guardala, magari dopo aver finito TLOU. :D

Havel
29-03-2023, 10:25
Comunque che piega imbarazzante gli ultimi giochi su PC, pare che senza una 4090 non si riesca più a giocare dignitosamente.

this is it!

DJurassic
29-03-2023, 10:28
Ho chiesto solo per aver conferma, avevo letto che ci fosse solo FSR ma evidentemente ho letto male. Non c'è bisogno di scaldarsi :)

Tu hai una config ultra high-end, quindi non fai testo. Le critiche vengono dalla massa dei giocatori su Steam, che hanno build di fascia media o bassa.
Un utente ci ha messo 5 ore a fare la compilazione degli shaders con un Ryzen 2600...neanche tanto vecchio.

Se chiedi commenti qui dentro credo che non faranno testo nessuna delle risposte che otterrai. Stavo per risponderti su TLOU ma a questo punto risparmio tempo. :asd:

parcher
29-03-2023, 10:30
forzerei una scheda che ha degli evidenti limiti di fabbrica, come la inno3d..

La Inno3d 4090 e la Inno3d 4090 Ichillx3 sono due schede diverse, anche nel prezzo, la seconda e' piu curata sia nell'estetica che nel raffreddamento ed altri dettagli. Sono abbastanza pratico non corro rischi, i componenti sono testati ben oltre le loro capacita', detto questo, (e su overclock.net) che ho seguito le vicende dei flash bios e delle memorie fortunelle della Ichill. d'accordo con te, alla fine si fa qualche bench tirato, e comunque l'ultimo dei problemi della Ichill e' il surriscaldamento sia della GPU che della Vram, la scheda e' devastante anche con il PL al 50% .;)

FrancoBit
29-03-2023, 11:19
Ma lol!

E' un meme quello. :asd: :asd:

Le immagini sono tratte da una scena della serie televisiva di HBO basata sul gioco. Se non l'hai vista guardala, magari dopo aver finito TLOU. :D

Sto schiattando lol :cry:

Cutter90
29-03-2023, 11:24
Si, in realtà graficamente il porting è fatto bene, ma è decisamente troppo pesante per quello che c'è a schermo, rendondo il consumo di cpu e ram assolutamente ingiustificato. Questo trend prosegue ormai da 1 anno e la cosa inizia davvero a darmi sui nervi. Ora improvvisamente anche i giochi con grafica mediocre e senza rt gravano sulla cpu e consumano una quantità spropositata di ram e vram. Boh. Ma possibile che nessuno abbia più voglia/sappia programmare su pc?

Salfox
29-03-2023, 11:26
Ma lol!

E' un meme quello. :asd: :asd:

Le immagini sono tratte da una scena della serie televisiva di HBO basata sul gioco. Se non l'hai vista guardala, magari dopo aver finito TLOU. :D

ahhhh ok :D :D :D :D :D

Salfox
29-03-2023, 11:31
Se chiedi commenti qui dentro credo che non faranno testo nessuna delle risposte che otterrai. Stavo per risponderti su TLOU ma a questo punto risparmio tempo. :asd:

Un commento te lo chiedo io, come gira sulla tua configurazione? Presumo bene, giusto?

Predator_1982
29-03-2023, 11:42
this is it!

c'è da sempre un aspetto paradossale nel rapporto potenza GPU e qualità dei giochi:

invece di vedere aumentare la prima e, di conseguenza, aumentare la qualità dei titoli, si assiste ad una tendenza strana.

La GPU super potente diventa necessaria non per muovere un titolo perché qualitativamente ultra curato, ma per compensare la sempre meno attenzione all'ottimizzazione (perché tanto c'è la 4090 che macina tutto).

Questo poi è il risultato. Capite bene il paradosso, perché GPU sempre più potenti solleveranno molti sviluppatori dal più faticoso compito di ottimizzare, più che sviluppare.

bagnino89
29-03-2023, 11:42
Si, in realtà graficamente il porting è fatto bene, ma è decisamente troppo pesante per quello che c'è a schermo, rendondo il consumo di cpu e ram assolutamente ingiustificato. Questo trend prosegue ormai da 1 anno e la cosa inizia davvero a darmi sui nervi. Ora improvvisamente anche i giochi con grafica mediocre e senza rt gravano sulla cpu e consumano una quantità spropositata di ram e vram. Boh. Ma possibile che nessuno abbia più voglia/sappia programmare su pc?

Infatti non si capisce come mai.

Per non saper né leggere né scrivere, io ho notato che quando si è passati da DX11 a DX12, l'ottimizzazione in generale è peggiorata. Probabilmente perché è più complicato programmare bene con le DX12.

Cutter90
29-03-2023, 11:45
Infatti non si capisce come mai.

Per non saper né leggere né scrivere, io ho notato che quando si è passati da DX11 a DX12, l'ottimizzazione in generale è peggiorata. Probabilmente perché è più complicato programmare bene con le DX12.

Ma posso capire, le DX12 siano più complesse, però ragazzi da quanto sono in giro? Cioè, possibile che nessuna sappia usarle come si deve?

Mi usi 20 gb di ram, 14 gb di vram mi saturi una i9-11900k... cavoli mi aspetto un gioco con una grafica mai vista e mostruosa. Con Una fisica pazzesca in un open wolrd. E Invece no. Il tutto su un Remake di un gioco ps3, SENZA rt, lineare e con la fisica di 20 anni fa.
Non può esistere. E' ora di finirla.

h.rorschach
29-03-2023, 11:48
Infatti non si capisce come mai.

Per non saper né leggere né scrivere, io ho notato che quando si è passati da DX11 a DX12, l'ottimizzazione in generale è peggiorata. Probabilmente perché è più complicato programmare bene con le DX12.

Non è DX12 il problema, è l'unificazione di tutti i prodotti sullo stesso engine (UE4), quindi soffrono tutti degli stessi problemi (shader compilation stutters e una generale pesantezza). Gli engine in-house stanno sparendo.

Stig
29-03-2023, 11:53
speriamo che con l'avvento del UE5 le cose cambieranno..(in meglio :asd: )

bagnino89
29-03-2023, 12:16
Non è DX12 il problema, è l'unificazione di tutti i prodotti sullo stesso engine (UE4), quindi soffrono tutti degli stessi problemi (shader compilation stutters e una generale pesantezza). Gli engine in-house stanno sparendo.

L'UE è davvero una chiavica secondo me.

speriamo che con l'avvento del UE5 le cose cambieranno..(in meglio :asd: )

Ho seri dubbi in merito.

sertopica
29-03-2023, 12:21
^ Dubito anche io. E anzi mi da' pure ai nervi che si stia andando in questa direzione.

Boh, secondo me alle nuove leve manca quasi del tutto il know-how necessario per programmare.

ahhhh ok :D :D :D :D :D

Qua ti sei fatto proprio sgamare che sei un matusa. :asd:

scherzo eh!

ROBHANAMICI
29-03-2023, 12:21
La Inno3d 4090 e la Inno3d 4090 Ichillx3 sono due schede diverse, anche nel prezzo, la seconda e' piu curata sia nell'estetica che nel raffreddamento ed altri dettagli. Sono abbastanza pratico non corro rischi, i componenti sono testati ben oltre le loro capacita', detto questo, (e su overclock.net) che ho seguito le vicende dei flash bios e delle memorie fortunelle della Ichill. d'accordo con te, alla fine si fa qualche bench tirato, e comunque l'ultimo dei problemi della Ichill e' il surriscaldamento sia della GPU che della Vram, la scheda e' devastante anche con il PL al 50% .;)


Contento te, anche se mi sembra un pò un controsenso quello che hai detto, prima flashi il bios della galax a 660w per spingerla al massimo e vederne i suoi limiti (io non l'avrei fatto considerando che è l'unica scheda che richiede due connettori di nuova gen per funzionare adeguatamente e una psu atx 3.0 nativa) e poi ritorni a quello originale con pl dimezzato. Non so per quale motivo hai preso questa decisione, ma fossi in te ritornerei al pl al 100%, così almeno te la godi un pò di più la scheda, (soprattutto se poi la scheda non ha problemi a livello di temp, vram, etc) poi il pl lo puoi benissimo ridurre in vista dei mesi più caldi e della stagione estiva per mantenere la tua gpu abbastanza fresca sia in termini di temp che di consumi.

Iceman69
29-03-2023, 14:34
Contento te, anche se mi sembra un pò un controsenso quello che hai detto, prima flashi il bios della galax a 660w per spingerla al massimo e vederne i suoi limiti (io non l'avrei fatto considerando che è l'unica scheda che richiede due connettori di nuova gen per funzionare adeguatamente e una psu atx 3.0 nativa) e poi ritorni a quello originale con pl dimezzato. Non so per quale motivo hai preso questa decisione, ma fossi in te ritornerei al pl al 100%, così almeno te la godi un pò di più la scheda, (soprattutto se poi la scheda non ha problemi a livello di temp, vram, etc) poi il pl lo puoi benissimo ridurre in vista dei mesi più caldi e della stagione estiva per mantenere la tua gpu abbastanza fresca sia in termini di temp che di consumi.

Eh sì, mi sa che in vista dei mesi caldi a qualcosina di prestazioni si dovrà rinunciare, per ora le serie 4000 l'estate non l'anno ancora provata, ma tra poco ci siamo... sicuramente rimpiangerò di non averla presa a liquido.

Cutter90
29-03-2023, 15:08
Eh sì, mi sa che in vista dei mesi caldi a qualcosina di prestazioni si dovrà rinunciare, per ora le serie 4000 l'estate non l'anno ancora provata, ma tra poco ci siamo... sicuramente rimpiangerò di non averla presa a liquido.

MA no dai, vedrai che le temperature saranno molto migliori delle 3000 anche d'estate

Stig
29-03-2023, 15:18
MA no dai, vedrai che le temperature saranno molto migliori delle 3000 anche d'estate

ho la stessa sensazione ;)

h.rorschach
29-03-2023, 15:21
Non so che temperature fanno le vostre, ma la FE non mi arriva a 70 in Superposition

Salfox
29-03-2023, 15:25
Eh sì, mi sa che in vista dei mesi caldi a qualcosina di prestazioni si dovrà rinunciare, per ora le serie 4000 l'estate non l'anno ancora provata, ma tra poco ci siamo... sicuramente rimpiangerò di non averla presa a liquido.

Io ce l'ho da ottobre scorso e faceva ancora molto caldo, confermo che le temperature erano bassissime anche allora, quindi non vi aspettate brutte sorprese.

davide155
29-03-2023, 15:25
Anche voi in tlou avete una sensazione di microscattosità quando muovete la visuale col mouse? Gsync attivo e tutto a stecca, non segna mai meno di 70fps.
Col joypad va liscio come l'olio.

h.rorschach
29-03-2023, 15:32
Anche voi in tlou avete una sensazione di microscattosità quando muovete la visuale col mouse? Gsync attivo e tutto a stecca, non segna mai meno di 70fps.
Col joypad va liscio come l'olio.

Bug noto dell'engine, è presente anche in Uncharted 4, mai risolto, port sviluppato dallo stesso team che ha portato TLoU

Salfox
29-03-2023, 15:33
Anche voi in tlou avete una sensazione di microscattosità quando muovete la visuale col mouse? Gsync attivo e tutto a stecca, non segna mai meno di 70fps.
Col joypad va liscio come l'olio.

Si è un problema noto dei giochi Playstation il mouse lag, io anche se sono un matusa :D :D :D e dovrei amare K+M è già da un bel po' di tempo che il mouse lo uso solo per lavoro e per navigare, per i giochi (tutti i tipi) uso solo il joypad.

davide155
29-03-2023, 15:44
Bug noto dell'engine, è presente anche in Uncharted 4, mai risolto, port sviluppato dallo stesso team che ha portato TLoU

Si è un problema noto dei giochi Playstation il mouse lag, io anche se sono un matusa :D :D :D e dovrei amare K+M è già da un bel po' di tempo che il mouse lo uso solo per lavoro e per navigare, per i giochi (tutti i tipi) uso solo il joypad.

Ok allora mi metto l'anima in pace.
Peccato....

bagnino89
29-03-2023, 15:48
Bug noto dell'engine, è presente anche in Uncharted 4, mai risolto, port sviluppato dallo stesso team che ha portato TLoU

Io gioco solo col controller, ma una cosa del genere è veramente incredibile. Non dovrebbero vendere neanche una copia.

Eddie666
29-03-2023, 17:31
a chi lamenta lag o stuttering su TLOU, sono presenti fin dall'inzio? perchè (compilazione degli shader a parte, che mi ha portato via 20 minuti), con la mia config (11700 + 4090) 4k su ultra (no dlss) il gioco sembra girare fluido, sempre sopra i 60 fps

davide155
29-03-2023, 17:54
a chi lamenta lag o stuttering su TLOU, sono presenti fin dall'inzio? perchè (compilazione degli shader a parte, che mi ha portato via 20 minuti), con la mia config (11700 + 4090) 4k su ultra (no dlss) il gioco sembra girare fluido, sempre sopra i 60 fpsIo lamentavo micro stuttering durante i movimenti del mouse.
Ma dicono sia un problema del motore grafico che si porta dietro dal porting di uncharted pure.
Ovviamente col joypad va liscio come l'olio.

h.rorschach
29-03-2023, 17:58
Uscita una patch per TLOU https://steamdb.info/patchnotes/10878648/

Eddie666
29-03-2023, 18:06
Io lamentavo micro stuttering durante i movimenti del mouse.
Ma dicono sia un problema del motore grafico che si porta dietro dal porting di uncharted pure.
Ovviamente col joypad va liscio come l'olio.

uhmm..ok..forse ho capito a cosa ti riferisci...ho notato anche io quell'effetto. Però mi sembra che scompaia abilitando il vsync (o è solo una mia impressione?:stordita: )

michele_legnano
29-03-2023, 19:55
ragazzi, ma sapevate che in The Last of Us ci sono anche le olive di Cerignola? :D

Me ne sono accorto oggi giocando :D


https://i.postimg.cc/JzYNyggt/the-last-of-us-olive-di-cerignola.jpg (https://postimg.cc/186n2WyZ)

DJurassic
29-03-2023, 19:59
Un commento te lo chiedo io, come gira sulla tua configurazione? Presumo bene, giusto?

Premesso che a fare la compilazione degli shader c'ho impiegato circa 10-15 minuti il resto è andato liscio come l'olio. Sto giocando in 4K maxato con il tweak per avere il DLAA e il frame rate oscilla tra i 90 e i 110fps con zero stuttering nè rallentamenti.

In 4K nativi gira ancora meglio e con DLSS attivo su quality sono quasi fisso a 120fps limitati con GPU che non è raggiunge il pieno utilizzo.

Capisco le critiche ma come sempre si eccede in un senso o nell'altro. I crash che la gente ha riscontrato sono principalmente dovuti ad un esagerato utilizzo della CPU che il gioco impone durante il precaricamento iniziale degli shader e che mette sotto stress tutti quelli che non hanno un OC davvero stabile. Dal momento che si tratta anche di uno stress prolungato è normale che molti sistemi si piantano dopo pochi minuti. Io stesso ne ho avuto uno al primo avvio ma una volta abbassato l'oc è filato liscio ed l'ho subito ripristinato come era prima.

Il problema semmai è dovuto alla durata con CPU non nuovissime. Perchè 1 ora per fare la compilazione degli shader è da folli anche solo a pensarlo.

NAP.
30-03-2023, 01:06
Tutto può essere.
Certo c'è da dire che se te lo fa solo su una applicazione 3d e basta è alquanto strano.
Provato svariati giochi? Svariati bench?
Provato con e senza dlss? Provato a tornare indietro di driver?
Provato a cambiare uscita video o addirittura monitor? Semmai attaccala alla tv del salotto. Provato il programma msi kombustor dove ti segnala gli errori delle memorie?
Provato a montarla su un altro sistema? Da un amico semmai.

Prima di rimandare la scheda indietro e metterla all'anima dei corrieri io vorrei esser certo che sia lei il problema.Io penso che sia la tv, appena è successo di nuovo ho spento e riacceso ed il problema era scomparso. È un lg 55 oled c1. Gioco in HDR. Ho appena fatto un firmware update. Devo riprovare


EDIT: No non è la tv mi è appena risuccesso e spegnendo e accendendo la tv lo schermo era tutto nero e diceva Invalid format . Ho dovuto spegnere il pc da tasto di accensione

davide155
30-03-2023, 02:06
Io penso che sia la tv, appena è successo di nuovo ho spento e riacceso ed il problema era scomparso. È un lg 55 oled c1. Gioco in HDR. Ho appena fatto un firmware update. Devo riprovare


EDIT: No non è la tv mi è appena risuccesso e spegnendo e accendendo la tv lo schermo era tutto nero e diceva Invalid format . Ho dovuto spegnere il pc da tasto di accensioneMmmm questo non fa ben sperare.
Fatto tutte le altre opzioni che ti ho detto?

Per quelli che stanno provando the last of us, avete avuto crash? Io sono nella zona della pioggia e crasha continuamente anche con tutto il sistema a default.....

mimi8384
30-03-2023, 07:50
Premesso che a fare la compilazione degli shader c'ho impiegato circa 10-15 minuti il resto è andato liscio come l'olio. Sto giocando in 4K maxato con il tweak per avere il DLAA e il frame rate oscilla tra i 90 e i 110fps con zero stuttering nè rallentamenti.

In 4K nativi gira ancora meglio e con DLSS attivo su quality sono quasi fisso a 120fps limitati con GPU che non è raggiunge il pieno utilizzo.

Capisco le critiche ma come sempre si eccede in un senso o nell'altro. I crash che la gente ha riscontrato sono principalmente dovuti ad un esagerato utilizzo della CPU che il gioco impone durante il precaricamento iniziale degli shader e che mette sotto stress tutti quelli che non hanno un OC davvero stabile. Dal momento che si tratta anche di uno stress prolungato è normale che molti sistemi si piantano dopo pochi minuti. Io stesso ne ho avuto uno al primo avvio ma una volta abbassato l'oc è filato liscio ed l'ho subito ripristinato come era prima.

Il problema semmai è dovuto alla durata con CPU non nuovissime. Perchè 1 ora per fare la compilazione degli shader è da folli anche solo a pensarlo.
con la 4080, i5 13600k a 5ghz e ram 32gb ddr5 non ho problemi di frame, però in alcune aree ho il frametime ballerino che rende il movimento della camera non fluidissimo, a te non capita ? il frame rate, con DLSS QUALITY si attesta tra i 90 e 120 fps anche quando il frame time traballa..
Per il resto, a tratti sembra un artwork in movimento :eek:

Matz
30-03-2023, 08:02
con la 4080, i5 13600k a 5ghz e ram 32gb ddr5 non ho problemi di frame, però in alcune aree ho il frametime ballerino che rende il movimento della camera non fluidissimo, a te non capita ? il frame rate, con DLSS QUALITY si attesta tra i 90 e 120 fps anche quando il frame time traballa..
Per il resto, a tratti sembra un artwork in movimento :eek:

Vale lo stesso per me a 1440p... artwork in movimento è il concetto giusto O_O

Frametime ballerino praticamente trascurabile direi... veramente non capisco 'ste polemiche ASSURDE ;_;?

igiolo
30-03-2023, 08:17
ragazzi, ma sapevate che in The Last of Us ci sono anche le olive di Cerignola? :D

Me ne sono accorto oggi giocando :D



:sofico: :sofico: :sofico:
beh son patrimonio dell'umanità cacchio

Salfox
30-03-2023, 08:18
Vale lo stesso per me a 1440p... artwork in movimento è il concetto giusto O_O

Frametime ballerino praticamente trascurabile direi... veramente non capisco 'ste polemiche ASSURDE ;_;?

E' quello che penso anch'io, effettivamente hanno ragione le persone che dicono che ormai il gaming PC è diventato un hobby da ricchi o da persone che possono permettersi un PC costoso. Tutti i nuovi giochi girano bene solo su configurazioni molto pompate, ci sono però anche gli eccessi di quelli che pretendono di giocare ai nuovi giochi con configurazioni che non sarebbero buone nemmeno per il solitario di windows. Purtroppo credo che chi non può permettersi una configurazione ben pompata si dovrà per forza di cose rivolgere al mondo console per continuare a videogiocare perchè ormai questo è l'andazzo attuale. Non credo però che potrà reggere per molto....

DJurassic
30-03-2023, 08:32
con la 4080, i5 13600k a 5ghz e ram 32gb ddr5 non ho problemi di frame, però in alcune aree ho il frametime ballerino che rende il movimento della camera non fluidissimo, a te non capita ? il frame rate, con DLSS QUALITY si attesta tra i 90 e 120 fps anche quando il frame time traballa..
Per il resto, a tratti sembra un artwork in movimento :eek:

Non uso il DLSS del gioco. Gira così bene che l'ho sostituito con il DLAA tramite il wrapper scaricabile da qui: https://github.com/emoose/DLSSTweaks/releases/tag/0.200.5-beta2

Il frametime da me non presenta drop nè stuttering di alcun tipo. Tieni presente che il gioco ha problemi con il mouse, quindi forse il fatto del movimento della camera può essere imputabile più a quello che ad un fattore di GPU. Leggi qui per capire di cosa parlo visto che sembra proprio il tuo caso:

https://www.dsogaming.com/news/the-last-of-us-part-i-suffers-from-the-same-mouse-camera-panning-stutters-of-uncharted-legacy-of-thieves-collection/

Se posso consigliarti io userei un gamepad sperando risolvano con un fix entro tempi celeri. Io sto usando quello di PS5 e và a meraviglia.

Stig
30-03-2023, 09:13
Finalmente è arrivata la 4090!

Questa sera tornerò ad essere dei vostri :D :D

Come battesimo, proverò subito TLOU :sofico:

Salfox
30-03-2023, 09:37
Finalmente è arrivata la 4090!

Questa sera tornerò ad essere dei vostri :D :D

Come battesimo, proverò subito TLOU :sofico:

Mi raccomando usa il cavo Corsair con il 760 per alimentarla :sofico: :sofico: :sofico:

Stig
30-03-2023, 10:04
Mi raccomando usa il cavo Corsair con il 760 per alimentarla :sofico: :sofico: :sofico:

RIGOROSAMENTE!! :D :D :D

A parte gli scherzi,
ora mi trovo con un un 760 AX e un cavo Corsair 12pin di troppo :asd:

albero77
30-03-2023, 16:27
Non uso il DLSS del gioco. Gira così bene che l'ho sostituito con il DLAA tramite il wrapper scaricabile da qui: https://github.com/emoose/DLSSTweaks/releases/tag/0.200.5-beta2

Il frametime da me non presenta drop nè stuttering di alcun tipo. Tieni presente che il gioco ha problemi con il mouse, quindi forse il fatto del movimento della camera può essere imputabile più a quello che ad un fattore di GPU. Leggi qui per capire di cosa parlo visto che sembra proprio il tuo caso:

https://www.dsogaming.com/news/the-last-of-us-part-i-suffers-from-the-same-mouse-camera-panning-stutters-of-uncharted-legacy-of-thieves-collection/

Se posso consigliarti io userei un gamepad sperando risolvano con un fix entro tempi celeri. Io sto usando quello di PS5 e và a meraviglia.

Io sto usando il controller della microsoft senza problemi e confermo anche le ottime prestazioni con 4090 dando però il tempo agli shader di caricare al 100%. Più che altro pensavo che ho acquistato una gpu da 2k per giocare solo ed esclusivamente alle ex esclusive di casa sony...forse un paio di domande dovrei farmele.

davide155
30-03-2023, 16:35
Io sto usando il controller della microsoft senza problemi e confermo anche le ottime prestazioni con 4090 dando però il tempo agli shader di caricare al 100%. Più che altro pensavo che ho acquistato una gpu da 2k per giocare solo ed esclusivamente alle ex esclusive di casa sony...forse un paio di domande dovrei farmele.

Perchè sono veramente dei gioielli le esclusive sony. C'è poco da fare, gli studios sotto sony riescono a tirar fuori delle piccole perle.
Days gone, tlou, horizon, god of war, sackboy, sono dei signori giochi e non c'è niente di male a giocarli con una gpu da 2mila€.

NAP.
30-03-2023, 18:41
Mmmm questo non fa ben sperare.
Fatto tutte le altre opzioni che ti ho detto?

Per quelli che stanno provando the last of us, avete avuto crash? Io sono nella zona della pioggia e crasha continuamente anche con tutto il sistema a default.....Non ho altro sistema dove montarla. Ho provato due driver diversi e stesso problema, anzi ho installato un nuovo driver proprio a causa di questo problema pensando di risolverlo. Ho notato che questo problema accada quando aumento il core voltage limit da afterburner (cioè quando la scheda va a 1.1v) se lasci il core voltage a default anche overclockando non succede nulla. In realtà magari è un po'presto per parlare ma dopo un'ora di gioco non è successo niente. Con altri giochi ripeto mai successo niente del genere

Stig
31-03-2023, 07:01
Scheda installata :D
ieri sera ho fatto in tempo solo a fare pochi bench e un paio di test su CP2077, TLOU e Requiem.

Prestazioni ok!

Non so se è una mia sensazione, ma mi sembra più rumorosa rispetto alla PNY che avevo prima.

Vorrei provare a modificare la curva della ventola.
Qualcuno ha già una curva ottimizzata da cui prendere spunto?

micronauta1981
31-03-2023, 07:23
Ot velocissimo

Non mi ricordo più se aggiornando il bios della scheda madre(Asus),il profilo viene resettato o rimane?

Dracula1975
31-03-2023, 07:32
Ot velocissimo

Non mi ricordo più se aggiornando il bios della scheda madre(Asus),il profilo viene resettato o rimane?

fatto ieri io e

si resetta i profili

ho dovuto rimettere i profili xmp delle ram perche' mi erano scese a 4800..(invece di 6200) bios asus 0816

micronauta1981
31-03-2023, 07:35
Ok grazie

sertopica
31-03-2023, 07:38
Ot velocissimo

Non mi ricordo più se aggiornando il bios della scheda madre(Asus),il profilo viene resettato o rimane?

Fatti un backup dei profili su pennetta. ;)

Dracula1975
31-03-2023, 07:47
Fatti un backup dei profili su pennetta. ;)

ragazzi ma su bios asus vale la pena attivare l'AI overclock per l'i9 13900k? oppure non ne vale la pena fare un minimo di overclock?

kiwivda
31-03-2023, 08:00
Io sto usando il controller della microsoft senza problemi e confermo anche le ottime prestazioni con 4090 dando però il tempo agli shader di caricare al 100%. Più che altro pensavo che ho acquistato una gpu da 2k per giocare solo ed esclusivamente alle ex esclusive di casa sony...forse un paio di domande dovrei farmele.

Guarda sarà anche vero che The Last Of Us - Pt.1 è un gioco vecchio, ma poterlo giocare in 6k + DLSS Quality che equivale ad un 4k nativo sotto steroidi, a 80 FPS non ha prezzo secondo me.

Ci sono un paio di pecche come le animazioni legnose durante il movimento con il pad, il pad stesso che è quasi obbligatorio, ma confronto all'originale, questo è un capolavoro.

per non parlare del fatto che gira liscio come il burro in una padella calda, e che grazie alla compilazione degli shader, di tutti gli shader , non si ha stuttering in nessuna situazione a patto di avere memoria video a sufficienza.

Nel mio caso occupa 21,5GB di Vram in 6k, per la precisione 5760x3240 che sarebbe 4k in DLDSR x2.25 + DLSS Quality che riporta tutto a 4k.

Ho giusto registrato un video del gameplay. (https://youtu.be/blThn3E9qaU)

Matz
31-03-2023, 08:04
ragazzi ma su bios asus vale la pena attivare l'AI overclock per l'i9 13900k? oppure non ne vale la pena fare un minimo di overclock?

Io lo attivo sempre e problemi non me ne da… poi un benchmark diretto non l’ho fatto ma l’importante è la stabilità IMO.

In ogni caso è tra le 3 cose che attivo/modifico da bios solitamente:

XMP
AI overclock
Re-size BAR

I tempi del OC manuale da diventar matti son finiti, almeno per me… ;_;/

h.rorschach
31-03-2023, 08:19
XMP e ReBAR sicuro. AI Overclock lo lascerei perdere, visto che alza VCore a livelli stupidi

Salfox
31-03-2023, 08:23
ragazzi ma su bios asus vale la pena attivare l'AI overclock per l'i9 13900k? oppure non ne vale la pena fare un minimo di overclock?

Se fai l'AI overclock sul 13900k mi dici per favore come ti trovi? E' una cosa che mi ha sempre stuzzicato ma non l'ho mai fatto per pigrizia.

sertopica
31-03-2023, 08:25
ragazzi ma su bios asus vale la pena attivare l'AI overclock per l'i9 13900k? oppure non ne vale la pena fare un minimo di overclock?

Non mi sono mai fidato dei sistemi automatizzati. Spesso sparano voltaggi atroci e non solo sulla CPU. Buttaci un po' di tempo e trova la quadra da te.

Io sono ancora su Z490 comunque, forse la situazione e' migliorata.

Dracula1975
31-03-2023, 08:31
Se fai l'AI overclock sul 13900k mi dici per favore come ti trovi? E' una cosa che mi ha sempre stuzzicato ma non l'ho mai fatto per pigrizia.

ti faro' sapere ;)

oltretutto con aggiornamento bios mi ha resettato i settaggi originali e non mi ricordavo piu' che profili xmp avevo messo originariamente per le mie corsair vengeance 6200 ddr5

allora ho impostato l'xmp I (che dovrebbe essere il piu' spinto) e vediamo come va :D

Cutter90
31-03-2023, 08:43
Io invece è un paio di giorni che quando sto inj indle, su chrome ad esempio, ricevo una bella schermata nera e al riavvio mi da un errore di caricamento di windows. Ho provato a ripararlo con scannow e chkdisk niente. Non ho aggiornato ne installato nulla. Boh. Ora provo a vedere le RAM, ma anche lì non ho toccato nulla.

Cutter90
31-03-2023, 08:46
Guarda sarà anche vero che The Last Of Us - Pt.1 è un gioco vecchio, ma poterlo giocare in 6k + DLSS Quality che equivale ad un 4k nativo sotto steroidi, a 80 FPS non ha prezzo secondo me.

Ci sono un paio di pecche come le animazioni legnose durante il movimento con il pad, il pad stesso che è quasi obbligatorio, ma confronto all'originale, questo è un capolavoro.

per non parlare del fatto che gira liscio come il burro in una padella calda, e che grazie alla compilazione degli shader, di tutti gli shader , non si ha stuttering in nessuna situazione a patto di avere memoria video a sufficienza.

Nel mio caso occupa 21,5GB di Vram in 6k, per la precisione 5760x3240 che sarebbe 4k in DLDSR x2.25 + DLSS Quality che riporta tutto a 4k.

Ho giusto registrato un video del gameplay. (https://youtu.be/blThn3E9qaU)

Non possiamo assolutamente valutare la bontà di un porting con una 4090. Un gioco del genere deve girare liscio ovunque. Non possono servire 18 gb di Vram ne, soprattutto, 18 gb di ram per farlo girare.
80 fps in 6k+dlss quality non sono per nulla incredibili se consideri che Ghostwire tokyo con il 6k e dlss quality gira a 60-70 fps, con massiccio uso del RT e con una mappa nettamente più grande.

Dracula1975
31-03-2023, 09:09
Io invece è un paio di giorni che quando sto inj indle, su chrome ad esempio, ricevo una bella schermata nera e al riavvio mi da un errore di caricamento di windows. Ho provato a ripararlo con scannow e chkdisk niente. Non ho aggiornato ne installato nulla. Boh. Ora provo a vedere le RAM, ma anche lì non ho toccato nulla.

Non so se possa essere relativo al tuo problema ma io seguo su youtube un canale Jarrod's tech che si occupa sopratutto di portatili da gaming

l'altro giorno ha postato questa cosa:





There seems to be a serious problem affecting current gen gaming laptops, here's what we know so far.

When idling or often after going from a heavy load to idle, the laptop screen might randomly go black. In our experience, it stays like this for a while until it restarts. After checking the event logs, it looks like the graphics drivers keep crashing and starting back up every minute for 5-10 minutes before it blue screens (with the screen still off, so you don't see the blue screen) and reboots.

We've had this happen to Lenovo, XMG and MSI laptops so far, however users on Reddit have also reported it on Aorus, ASUS and Razer laptops too. It might be specific to Intel 13th gen + DDR5-5600 memory, but not confirmed. Some are speculating that it may be specific to SK Hynix RAM sticks, but again, not confirmed. The issue seems to have appeared 2-3 weeks ago.

From what I've heard so far, it sounds like a BIOS update will be coming in the next couple of weeks for all brands to fix this. This makes me think that it's Intel related, maybe memory controller related? Not sure, I'm just speculating based on info collected so far. The event logs point to an Nvidia driver problem, but that could be a symptom rather than cause.

For now there isn't really a good work around. A number of people have returned laptops due to this thinking it's a problem with the laptop they bought, only to find it again on their replacement. It seems to be a fairly widespread problem applicable to any laptop brand at the moment.

It didn't seem worth covering this in a video as I can't replicate it on camera and don't know how to fix it or work around it. We have a few laptops like the Legion Pro 5i that we've just had to put on hold testing because the crashes are too frequent and get in the way. It's super frustrating, but not a Lenovo specific problem, so not even sure if it's worth calling out in the review as in theory it would apply to any laptop.

I noticed that people have reported the following issue for desktop RTX 40 systems on the /r/nvidia subreddit:
[GeForce RTX 4090] [GeForce RTX 4080] [GeForce RTX 4070Ti] stability / TDR / black screen issues. Check for a motherboard BIOS update that states 'compatibility updates for Lovelace/4080/4090/4070Ti'. The motherboard update is in addition to any VBIOS update. Nvidia control panel setting 'Prefer Maximum Performance' may mitigate idle/monitor resume/crashing issues (workaround)

Sounds like the same problem, but perhaps we need this update to come to laptops too. XMG mentioned that the most recent 531.41 Nvidia driver may have increased the Nvidia GPU idle voltage, perhaps to help improve stability when not under load, but I've still had this happen on multiple laptops on the latest driver.

E' in inglese per cui chiedo scusa a chi non lo parla

Sharkyz
31-03-2023, 09:10
Non possiamo assolutamente valutare la bontà di un porting con una 4090. Un gioco del genere deve girare liscio ovunque. Non possono servire 18 gb di Vram ne, soprattutto, 18 gb di ram per farlo girare.
80 fps in 6k+dlss quality non sono per nulla incredibili se consideri che Ghostwire tokyo con il 6k e dlss quality gira a 60-70 fps, con massiccio uso del RT e con una mappa nettamente più grande.

Che poi a me stuttera lo stesso in alcuni punti (quale che siano i setting o le risoluzioni, ho provato pure i 720p a low), si vede che un 5800x3D, 32GB di ram ed una 4090 non bastano per questa perla di programmazione.
E meno male che lo avevano rimandato per farlo uscire perfetto.

Cutter90
31-03-2023, 09:13
Non so se possa essere relativo al tuo problema ma io seguo su youtube un canale Jarrod's tech che si occupa sopratutto di portatili da gaming

l'altro giorno ha postato questa cosa:





There seems to be a serious problem affecting current gen gaming laptops, here's what we know so far.

When idling or often after going from a heavy load to idle, the laptop screen might randomly go black. In our experience, it stays like this for a while until it restarts. After checking the event logs, it looks like the graphics drivers keep crashing and starting back up every minute for 5-10 minutes before it blue screens (with the screen still off, so you don't see the blue screen) and reboots.

We've had this happen to Lenovo, XMG and MSI laptops so far, however users on Reddit have also reported it on Aorus, ASUS and Razer laptops too. It might be specific to Intel 13th gen + DDR5-5600 memory, but not confirmed. Some are speculating that it may be specific to SK Hynix RAM sticks, but again, not confirmed. The issue seems to have appeared 2-3 weeks ago.

From what I've heard so far, it sounds like a BIOS update will be coming in the next couple of weeks for all brands to fix this. This makes me think that it's Intel related, maybe memory controller related? Not sure, I'm just speculating based on info collected so far. The event logs point to an Nvidia driver problem, but that could be a symptom rather than cause.

For now there isn't really a good work around. A number of people have returned laptops due to this thinking it's a problem with the laptop they bought, only to find it again on their replacement. It seems to be a fairly widespread problem applicable to any laptop brand at the moment.

It didn't seem worth covering this in a video as I can't replicate it on camera and don't know how to fix it or work around it. We have a few laptops like the Legion Pro 5i that we've just had to put on hold testing because the crashes are too frequent and get in the way. It's super frustrating, but not a Lenovo specific problem, so not even sure if it's worth calling out in the review as in theory it would apply to any laptop.

I noticed that people have reported the following issue for desktop RTX 40 systems on the /r/nvidia subreddit:
[GeForce RTX 4090] [GeForce RTX 4080] [GeForce RTX 4070Ti] stability / TDR / black screen issues. Check for a motherboard BIOS update that states 'compatibility updates for Lovelace/4080/4090/4070Ti'. The motherboard update is in addition to any VBIOS update. Nvidia control panel setting 'Prefer Maximum Performance' may mitigate idle/monitor resume/crashing issues (workaround)

Sounds like the same problem, but perhaps we need this update to come to laptops too. XMG mentioned that the most recent 531.41 Nvidia driver may have increased the Nvidia GPU idle voltage, perhaps to help improve stability when not under load, but I've still had this happen on multiple laptops on the latest driver.

E' in inglese per cui chiedo scusa a chi non lo parla

Eh cavoli sembra proprio il mio problema

kiwivda
31-03-2023, 10:34
Non possiamo assolutamente valutare la bontà di un porting con una 4090. Un gioco del genere deve girare liscio ovunque. Non possono servire 18 gb di Vram ne, soprattutto, 18 gb di ram per farlo girare.
80 fps in 6k+dlss quality non sono per nulla incredibili se consideri che Ghostwire tokyo con il 6k e dlss quality gira a 60-70 fps, con massiccio uso del RT e con una mappa nettamente più grande.

Bah... de gustibus, Gostwire Tokio non è tra i miei giochi, non ce l'ho e non penso nemmeno che lo proverò, tuttavia nonostante TLOU non abbia implementazioni RT ha un comparto illuminazione semplicemente meraviglioso che fa impallidire tante implementazioni zoppe in RT.

Anche guardando alla quantità e qualità degli asset in game raramente ti trovi di fronte a 2 oggetti identici riutilizzati più volte, senza contare la qualità delle texture che per una volta sembrano veramente ben fatte ed al limite del fotorealismo, nonostante non credo siano Quixel.
Detto ciò vederlo girare a in 6K tra i 70 ed 100 fps è semplicemente strepitoso altro che non degno di nota e vedere un pezzo d'ardware che gestisce con disinvoltura 21GB di dati in Vram (si perche sono arrivato a vedere 21,5GB occupati) è fenomenale, soprattutto quando per una volta su schermo il risultato si riflette piacevolmente e non sembra di essere davanti ai disegni di un bambino delle elementari cecato.

Discorso performace e cpu è da notare che se messo in 4k nativo o con dlss, il framerate supera abbondantemente il cap del monitor, ma il problema principale è la CPU, che non sta dietro a non so cosa (visto che gli shader sono precompilati e la fisica è più o meno assente e di npc non è che siamo davanti a Kabuki all'ora di punta), quello è un problema.

Per Sharkyz, si sicuramente il 5800X3D non ce la fa manco per sbaglio (io sono ancora con il 10900k). In 4k, dove sei generalmente oltre i 120 fps, noto molta meno fluidità (cosa strana perchè mi sarei aspettato il contrario), rispetto ai 70/100 fps che ottengo in 6k con DLDSR +DLSS Quality ed un uso molto più marcato della cpu. Tutte cose che in 6k si riducono e rendono più godibile il titolo.

Poi ripeto de gustibus.

Magistercris
31-03-2023, 10:40
Guarda sarà anche vero che The Last Of Us - Pt.1 è un gioco vecchio, ma poterlo giocare in 6k + DLSS Quality che equivale ad un 4k nativo sotto steroidi, a 80 FPS non ha prezzo secondo me.

Ci sono un paio di pecche come le animazioni legnose durante il movimento con il pad, il pad stesso che è quasi obbligatorio, ma confronto all'originale, questo è un capolavoro.

per non parlare del fatto che gira liscio come il burro in una padella calda, e che grazie alla compilazione degli shader, di tutti gli shader , non si ha stuttering in nessuna situazione a patto di avere memoria video a sufficienza.

Nel mio caso occupa 21,5GB di Vram in 6k, per la precisione 5760x3240 che sarebbe 4k in DLDSR x2.25 + DLSS Quality che riporta tutto a 4k.

Ho giusto registrato un video del gameplay. (https://youtu.be/blThn3E9qaU)

Ciao e grazie della dritta.
Volevo provare ma una volta impostato su NCP il DLDSR x2.25, nel gioco non riesco a trovare l'impostazione aggiuntiva di risoluzione.
Puoi aiutarmi, please?
Grazie

Sharkyz
31-03-2023, 10:48
Per Sharkyz, si sicuramente il 5800X3D non ce la fa manco per sbaglio (io sono ancora con il 10900k). In 4k, dove sei generalmente oltre i 120 fps, noto molta meno fluidità (cosa strana perchè mi sarei aspettato il contrario), rispetto ai 70/100 fps che ottengo in 6k con DLDSR +DLSS Quality ed un uso molto più marcato della cpu. Tutte cose che in 6k si riducono e rendono più godibile il titolo.


Non ho capito cosa intendi.
Il 5800X3D non ce la fa manco per sbaglio a fare cosa?

Diciamo comunque che il DLSS3 in questo gioco aiuterebbe parecchio, visto quanto è usata male la cpu.

kiwivda
31-03-2023, 10:48
Ciao e grazie della dritta.
Volevo provare ma una volta impostato su NCP il DLDSR x2.25, nel gioco non riesco a trovare l'impostazione aggiuntiva di risoluzione.
Puoi aiutarmi, please?
Grazie

Imposta la risoluzione in windows prima di lanciare il gioco, TLOU non gira a tutto schermo ma in finestra senza bordi, se non sei già alla risoluzione del DLDSR non te la vede. Ah è anche il G-Sync se lo usi attivalo sia per schermo intero che in finestra se no non va.

kiwivda
31-03-2023, 10:51
Non ho capito cosa intendi.
Il 5800X3D non ce la fa manco per sbaglio a fare cosa?

Diciamo comunque che il DLSS3 in questo gioco aiuterebbe parecchio, visto quanto è usata male la cpu.

Non ce la fa a stare dietro alla GPU, in questo gioco, come detto sopra, non si capisce come mai il carico sulla cpu sia così intenso, il 5800X3d è un'ottima cpu ma non di primo pelo e se già il software te la sobbarca di cose che boh, stare anche dietro alla 4090 che macina frame in 4k come se non ci fosse un domani diventa proibitivo anche per lei.

Sharkyz
31-03-2023, 11:08
Non ce la fa a stare dietro alla GPU, in questo gioco, come detto sopra, non si capisce come mai il carico sulla cpu sia così intenso, il 5800X3d è un'ottima cpu ma non di primo pelo e se già il software te la sobbarca di cose che boh, stare anche dietro alla 4090 che macina frame in 4k come se non ci fosse un domani diventa proibitivo anche per lei.

Oddio, dubito fortemente sia colpa della CPU, quando pure con la serie 13 di Intel c'è lo stesso problema, è semplicemente colpa del gioco.
Che poi "Anyone else starting to feel personally insulted by the quality of PC releases? I hope consumers feel that way a bit so that publishers get the message with buying patterns. I have no idea what Sony thought when releasing this in the state it is in, it needs incredible amounts of work." (Alex Battaglia di Digital Foundry).

Comunque, tornado alla 4090, più la uso e più sono soddisfatto, tra i 24GB di VRAM ed il DLSS3 (assieme ad altre cosette) è una scheda che mi da quella bella sensazione di future proof che non provavo da un po'.
Non vedo l'ora di provare il path tracing di Cyberpunk.

Alekos Panagulis
31-03-2023, 11:12
Non ce la fa a stare dietro alla GPU, in questo gioco, come detto sopra, non si capisce come mai il carico sulla cpu sia così intenso, il 5800X3d è un'ottima cpu ma non di primo pelo e se già il software te la sobbarca di cose che boh, stare anche dietro alla 4090 che macina frame in 4k come se non ci fosse un domani diventa proibitivo anche per lei.

Kiwida hai un po' la fissazione con il 5800x3d....Non perdi nulla rispetto al 13900k o ks. I test dicono che le percentuali di differenza sono decimali.

beatl
31-03-2023, 11:20
Bah... de gustibus, Gostwire Tokio non è tra i miei giochi, non ce l'ho e non penso nemmeno che lo proverò, tuttavia nonostante TLOU non abbia implementazioni RT ha un comparto illuminazione semplicemente meraviglioso che fa impallidire tante implementazioni zoppe in RT.

Anche guardando alla quantità e qualità degli asset in game raramente ti trovi di fronte a 2 oggetti identici riutilizzati più volte, senza contare la qualità delle texture che per una volta sembrano veramente ben fatte ed al limite del fotorealismo, nonostante non credo siano Quixel.
Detto ciò vederlo girare a in 6K tra i 70 ed 100 fps è semplicemente strepitoso altro che non degno di nota e vedere un pezzo d'ardware che gestisce con disinvoltura 21GB di dati in Vram (si perche sono arrivato a vedere 21,5GB occupati) è fenomenale, soprattutto quando per una volta su schermo il risultato si riflette piacevolmente e non sembra di essere davanti ai disegni di un bambino delle elementari cecato.

Discorso performace e cpu è da notare che se messo in 4k nativo o con dlss, il framerate supera abbondantemente il cap del monitor, ma il problema principale è la CPU, che non sta dietro a non so cosa (visto che gli shader sono precompilati e la fisica è più o meno assente e di npc non è che siamo davanti a Kabuki all'ora di punta), quello è un problema.

Per Sharkyz, si sicuramente il 5800X3D non ce la fa manco per sbaglio (io sono ancora con il 10900k). In 4k, dove sei generalmente oltre i 120 fps, noto molta meno fluidità (cosa strana perchè mi sarei aspettato il contrario), rispetto ai 70/100 fps che ottengo in 6k con DLDSR +DLSS Quality ed un uso molto più marcato della cpu. Tutte cose che in 6k si riducono e rendono più godibile il titolo.

Poi ripeto de gustibus.

Grazie per le dritte nel WE lo provo così ...

wulff73
31-03-2023, 11:49
Non ce la fa a stare dietro alla GPU, in questo gioco, come detto sopra, non si capisce come mai il carico sulla cpu sia così intenso, il 5800X3d è un'ottima cpu ma non di primo pelo e se già il software te la sobbarca di cose che boh, stare anche dietro alla 4090 che macina frame in 4k come se non ci fosse un domani diventa proibitivo anche per lei.

Io lo sto giocando col sistema in firma in 4K...sono alla prima ora di gioco e la GPU sta sempre intorno al 100% (escludendo le parti del gioco rotte (https://www.youtube.com/watch?v=duqkMYAN9zk&t=420s) ma vale lo stesso per tutte le CPU)...esattamente cosa intendi quando dici che non ce la fa a stargli dietro alla GPU?

kiwivda
31-03-2023, 12:27
Io lo sto giocando col sistema in firma in 4K...sono alla prima ora di gioco e la GPU sta sempre intorno al 100% (escludendo le parti del gioco rotte (https://youtu.be/duqkMYAN9zk?t=420) ma vale lo stesso per tutte le CPU)...esattamente cosa intendi quando dici che non ce la fa a stargli dietro alla GPU?

Questo:

Discorso performace e cpu è da notare che se messo in 4k nativo o con dlss, il framerate supera abbondantemente il cap del monitor, ma il problema principale è la CPU, che non sta dietro a non so cosa (visto che gli shader sono precompilati e la fisica è più o meno assente e di npc non è che siamo davanti a Kabuki all'ora di punta), quello è un problema.

Per Sharkyz, si sicuramente il 5800X3D non ce la fa manco per sbaglio (io sono ancora con il 10900k). In 4k, dove sei generalmente oltre i 120 fps, noto molta meno fluidità (cosa strana perchè mi sarei aspettato il contrario), rispetto ai 70/100 fps che ottengo in 6k con DLDSR +DLSS Quality ed un uso molto più marcato della cpu. Tutte cose che in 6k si riducono e rendono più godibile il titolo.

anche perché non è che siamo poi su pianeti differenti, diciamo piuttosto dirimpettai:
http://i.imgur.com/z1vFPaLl.png (https://imgur.com/z1vFPaL)

Sharkyz
31-03-2023, 12:36
anche perché non è che siamo poi su pianeti differenti, diciamo piuttosto dirimpettai:
http://i.imgur.com/z1vFPaLl.png (https://imgur.com/z1vFPaL)

Perdonami ma stai prendendo un leggerissimissimo granchio, ma giusto un filo, non ho veramente mai visto nessuno fare una comparativa del genere.
Se vuoi guardare qualcosa di un po' più serio, ma sempre un filo, c'è la prova su techpowerup con la 4090.

Magistercris
31-03-2023, 12:37
Imposta la risoluzione in windows prima di lanciare il gioco, TLOU non gira a tutto schermo ma in finestra senza bordi, se non sei già alla risoluzione del DLDSR non te la vede. Ah è anche il G-Sync se lo usi attivalo sia per schermo intero che in finestra se no non va.

Grazie mille kiwivda!!!

h.rorschach
31-03-2023, 12:40
Cortese appunto di non usare mai UserBenchmarks per nulla che non sia farsi quattro risate

Cutter90
31-03-2023, 12:45
Bah... de gustibus, Gostwire Tokio non è tra i miei giochi, non ce l'ho e non penso nemmeno che lo proverò, tuttavia nonostante TLOU non abbia implementazioni RT ha un comparto illuminazione semplicemente meraviglioso che fa impallidire tante implementazioni zoppe in RT.

Anche guardando alla quantità e qualità degli asset in game raramente ti trovi di fronte a 2 oggetti identici riutilizzati più volte, senza contare la qualità delle texture che per una volta sembrano veramente ben fatte ed al limite del fotorealismo, nonostante non credo siano Quixel.
Detto ciò vederlo girare a in 6K tra i 70 ed 100 fps è semplicemente strepitoso altro che non degno di nota e vedere un pezzo d'ardware che gestisce con disinvoltura 21GB di dati in Vram (si perche sono arrivato a vedere 21,5GB occupati) è fenomenale, soprattutto quando per una volta su schermo il risultato si riflette piacevolmente e non sembra di essere davanti ai disegni di un bambino delle elementari cecato.

Discorso performace e cpu è da notare che se messo in 4k nativo o con dlss, il framerate supera abbondantemente il cap del monitor, ma il problema principale è la CPU, che non sta dietro a non so cosa (visto che gli shader sono precompilati e la fisica è più o meno assente e di npc non è che siamo davanti a Kabuki all'ora di punta), quello è un problema.

Per Sharkyz, si sicuramente il 5800X3D non ce la fa manco per sbaglio (io sono ancora con il 10900k). In 4k, dove sei generalmente oltre i 120 fps, noto molta meno fluidità (cosa strana perchè mi sarei aspettato il contrario), rispetto ai 70/100 fps che ottengo in 6k con DLDSR +DLSS Quality ed un uso molto più marcato della cpu. Tutte cose che in 6k si riducono e rendono più godibile il titolo.

Poi ripeto de gustibus.

Ma guarda che però gli asset e la loro bontà non c'entrano nulla con le performance. i 21 gb di vram occupati non sono assolutamente una cosa fantastica ma FORTEMENTE negativa. Perchè mai un gioco con una grafica del genere occupa così tanta vram? Cioè, non è certamente da premiare.
Il problema non è che il gioco giri bene sulle nostre configurazioni, ma che lo debba fare su gran parte di esse. Invece è pesante in maniera del tutto immotivata. CPu, RAM, VRam vengono utilizzate in maniera insensatamente alta per il titolo che è.

kiwivda
31-03-2023, 12:55
Perdonami ma stai prendendo un leggerissimissimo granchio, ma giusto un filo, non ho veramente mai visto nessuno fare una comparativa del genere.
Se vuoi guardare qualcosa di un po' più serio, ma sempre un filo, c'è la prova su techpowerup con la 4090.

Si beh ho preso la prima cosa a caso era per dire che in 4k tra le due cpu non cambia assolutamente nulla, dove guadagna siamo nell'ordine di 1/2 frame dove perde di 2 frame, il 5% medio a favore del 5800X3d è un valore coerente.
Comunque visto che insistete vi riporto con i piedi per terra:
http://i.imgur.com/gGOCWJ9l.png (https://imgur.com/gGOCWJ9)
http://i.imgur.com/kHf9Y2ul.png (https://imgur.com/kHf9Y2u)
http://i.imgur.com/G29aDX9l.png (https://imgur.com/G29aDX9)
http://i.imgur.com/1aiV3z4l.png (https://imgur.com/1aiV3z4)
http://i.imgur.com/gKq7iu9l.png (https://imgur.com/gKq7iu9)
http://i.imgur.com/m0uoJFrl.png (https://imgur.com/m0uoJFr)

Link che famo prima va https://www.techpowerup.com/review/amd-ryzen-7-5800x3d/18.html

Poi ho spiaze se avete comprato una cpu da 300 euro pensando di avere i9-13900k da 800 euro, ma magari leggere i numeri invece di guardare le barrette colorate eh.

Posso finirla quindi con questo ot e torniamo a parlare del gioco e del perché sfondi la cpu che non sta dietro alla 4090 o devo andare avanti ancora.

Sharkyz
31-03-2023, 12:57
Posso finirla quindi con questo ot e torniamo a parlare del gioco e del perché sfondi la cpu che non sta dietro alla 4090 o devo andare avanti ancora.

Guarda hai già detto abbastanza, non ti preoccupare.
Poi semmai parliamo della 4090 e non del gioco se ci tieni a non essere OT.

lordsnk
31-03-2023, 13:03
Questo:

Discorso performace e cpu è da notare che se messo in 4k nativo o con dlss, il framerate supera abbondantemente il cap del monitor, ma il problema principale è la CPU, che non sta dietro a non so cosa (visto che gli shader sono precompilati e la fisica è più o meno assente e di npc non è che siamo davanti a Kabuki all'ora di punta), quello è un problema.

Per Sharkyz, si sicuramente il 5800X3D non ce la fa manco per sbaglio (io sono ancora con il 10900k). In 4k, dove sei generalmente oltre i 120 fps, noto molta meno fluidità (cosa strana perchè mi sarei aspettato il contrario), rispetto ai 70/100 fps che ottengo in 6k con DLDSR +DLSS Quality ed un uso molto più marcato della cpu. Tutte cose che in 6k si riducono e rendono più godibile il titolo.

anche perché non è che siamo poi su pianeti differenti, diciamo piuttosto dirimpettai:
http://i.imgur.com/z1vFPaLl.png (https://imgur.com/z1vFPaL)

Per piacere non usiamo quella monnezza di UserBenchmarks :D :D :D

Complimenti per aver utilizzato il DLDSR + DLSS per sfruttare al massimo la 4090 senza spendere un capitale per la cpu ;)

kiwivda
31-03-2023, 13:25
Guarda hai già detto abbastanza, non ti preoccupare.
Poi semmai parliamo della 4090 e non del gioco se ci tieni a non essere OT.

Per piacere non usiamo quella monnezza di UserBenchmarks :D :D :D

Complimenti per aver utilizzato il DLDSR + DLSS per sfruttare al massimo la 4090 senza spendere un capitale per la cpu ;)

Oh me li avete chiesti voi i numeri più precisi eh pochi cazzi, questi sono quelli che mi avete detto di usare VOI.

Ma svegliaaaa!

Cutter90
31-03-2023, 13:45
Ma si, è la solita storia. IN gaming intel resta la migliore, ma visto che nei test sintetici e per le applicazione amd va di più allora la gente pensa che vada di più anche ingame. Ma non è così. Intel, soprattutto grazie alle frequenze più alte in gaming è sempre andata meglio di amd a parità di fascia. Oltre che essere anche più costante e meno altalenante a seconda dei titoli

DJurassic
31-03-2023, 13:49
Ma guarda che però gli asset e la loro bontà non c'entrano nulla con le performance. i 21 gb di vram occupati non sono assolutamente una cosa fantastica ma FORTEMENTE negativa. Perchè mai un gioco con una grafica del genere occupa così tanta vram? Cioè, non è certamente da premiare.
Il problema non è che il gioco giri bene sulle nostre configurazioni, ma che lo debba fare su gran parte di esse. Invece è pesante in maniera del tutto immotivata. CPu, RAM, VRam vengono utilizzate in maniera insensatamente alta per il titolo che è.

Se parla di 6K quei 21Gb mi sembrano una cosa fondamentalmente normale. In 4K il gioco si assesta sui 12Gb al massimo del dettaglio, quindi non parliamo di cose dell'altro mondo.

Non possiamo assolutamente valutare la bontà di un porting con una 4090. Un gioco del genere deve girare liscio ovunque. Non possono servire 18 gb di Vram ne, soprattutto, 18 gb di ram per farlo girare.
80 fps in 6k+dlss quality non sono per nulla incredibili se consideri che Ghostwire tokyo con il 6k e dlss quality gira a 60-70 fps, con massiccio uso del RT e con una mappa nettamente più grande.

Stai davvero paragonando GhostWire Tokyo a TLOU?

Ti prego...

bagnino89
31-03-2023, 13:55
Ma si, è la solita storia. IN gaming intel resta la migliore, ma visto che nei test sintetici e per le applicazione amd va di più allora la gente pensa che vada di più anche ingame. Ma non è così. Intel, soprattutto grazie alle frequenze più alte in gaming è sempre andata meglio di amd a parità di fascia. Oltre che essere anche più costante e meno altalenante a seconda dei titoli

Le nuove AMD, specie 3d, mi sembrano tutto fuorché inferiori alle Intel, tutt'altro... Oltre a consumare qualche GW in meno.

Stai davvero paragonando GhostWire Tokyo a TLOU?

Ti prego...

Beh però non ha tutti i torti. TLOU graficamente è carino, ma niente di che, dai. Lineare, aree piccole, fisica praticamente assente... Sono folli le sue richieste hardware.

Sharkyz
31-03-2023, 13:59
Ma si, è la solita storia. IN gaming intel resta la migliore, ma visto che nei test sintetici e per le applicazione amd va di più allora la gente pensa che vada di più anche ingame. Ma non è così. Intel, soprattutto grazie alle frequenze più alte in gaming è sempre andata meglio di amd a parità di fascia. Oltre che essere anche più costante e meno altalenante a seconda dei titoli

https://www.techpowerup.com/review/rtx-4090-53-games-core-i9-13900k-vs-ryzen-7-5800x3d/
"its gaming performance somewhere between the i9-12900K and the i9-13900K"
La prova giusto con la 4090.

Alla faccia del forum tecnico, madonnina santa.
E comunque liberi di autoconvincersi che nei giochi gli Intel serie 10 e 11 vanno meglio delle cpu AMD con la V-CACHE perchè "gli Intel vanno meglio", nulla in contrario.

DJurassic
31-03-2023, 14:09
Beh però non ha tutti i torti. TLOU graficamente è carino, ma niente di che, dai. Lineare, aree piccole, fisica praticamente assente... Sono folli le sue richieste hardware.

Non ho detto che è lo stato dell'arte dell'ottimizzazione, dico solo che non è questa tragedia come la si vuol far passare. Una volta appurato che sotto i 12Gb di Vram avrai problemi se non scali pesantemente su textures e dettagli il resto è in linea con quello che vedo in altre decine di titoli. Ho visto TLOU girare in maniera soddisfacente anche su configurazioni decisamente meno performanti della mia.

Concludo dicendo che c'è più densità poligonale in una stanza di TLOU qualsiasi che in un intera via di Ghostwire Tokyo, e vi ricordo che parliamo di un gioco che quando uscì in pochi riuscivano a giocarci decentemente. Per me non è proprio il termine di paragone corretto, non se lo merita.

Stig
31-03-2023, 14:10
https://www.techpowerup.com/review/rtx-4090-53-games-core-i9-13900k-vs-ryzen-7-5800x3d/
"its gaming performance somewhere between the i9-12900K and the i9-13900K"
La prova giusto con la 4090.


"its gaming performance somewhere between the i9-12900K and the i9-13900K"

..che, a loro volta, IN 4K, sono quasi in linea con le prestazioni in delle serie 10 e 11 di Intel :stordita: o sbaglio?

Sharkyz
31-03-2023, 14:14
"its gaming performance somewhere between the i9-12900K and the i9-13900K"

..che, a loro volta, IN 4K, sono quasi in linea con le prestazioni in delle serie 10 e 11 di Intel :stordita: o sbaglio?

Certo, in 4K tutto si appiattisce, ma ti ricordo che questa bellissimissima discussione sulle CPU partiva dalla considerazione che il 5800x3D "non ce la fa manco per sbaglio", a fare cosa nemmeno si sa :D il tutto in un gioco programmato talmente coi piedi che nemmeno la 4090 riesce a porre rimedio (magari col dlss3 si potrebbero mascherare i problemi di CPU limit, ma purtroppo il gioco non lo supporta).

EDIT: comunque credo che sui framerate minimi, anche in 4k, il 5800x3D vada molto molto meglio rispetto ai vecchi intel, e non è una cosa secondaria.

Cutter90
31-03-2023, 14:19
Non ho detto che è lo stato dell'arte dell'ottimizzazione, dico solo che non è questa tragedia come la si vuol far passare. Una volta appurato che sotto i 12Gb di Vram avrai problemi se non scali pesantemente su textures e dettagli il resto è in linea con quello che vedo in altre decine di titoli. Ho visto TLOU girare in maniera soddisfacente anche su configurazioni decisamente meno performanti della mia.

Concludo dicendo che c'è più densità poligonale in una stanza di TLOU qualsiasi che in un intera via di Ghostwire Tokyo, e vi ricordo che parliamo di un gioco che quando uscì in pochi riuscivano a giocarci decentemente. Per me non è proprio il termine di paragone corretto, non se lo merita.

Si ma ghostwire ha un rt molto molto presente. E quello fa tutta la differenza del mondo, molto più che la densità poligonale a livello di performance.
Non si può giustificare lato cpu, ram e vram il consumo di tlou remake. E' davvero impossibile dai.
Non sto dicendo che fa cagare, sia chiaro. Ma che per la grafica che ha e la linearità che ha non è accettabile a livello di performance.

Cutter90
31-03-2023, 14:20
https://www.techpowerup.com/review/rtx-4090-53-games-core-i9-13900k-vs-ryzen-7-5800x3d/
"its gaming performance somewhere between the i9-12900K and the i9-13900K"
La prova giusto con la 4090.

Alla faccia del forum tecnico, madonnina santa.
E comunque liberi di autoconvincersi che nei giochi gli Intel serie 10 e 11 vanno meglio delle cpu AMD con la V-CACHE perchè "gli Intel vanno meglio", nulla in contrario.

In 4k i test sono lì davanti a tutti. Di 4k si parlava. Ma cmq siamo ot

Eddie666
31-03-2023, 14:39
cme è vero che in TLOU la cpu lavora molto di più che nella media di altri giochi tripla AAA: di seguito allego 3 screenshots, tutti realizzati in 4k dettagli ultra;

DLSS ON, VSYNC OFF, rtx 4090 @ 2830mhz: è il settagio con cui la mia cpu (un 11700 liscio) lavora in percentuale maggiore, mentre l'utilizzo dell gpu si attesta intorno al 90%

https://i.ibb.co/cgSNKZ8/01-SI-DLSS.jpg (https://ibb.co/cgSNKZ8)

DLSS OFF, VSYNC OFF, rtx 4090 @ 2830mhz: qua il discorso si ribalta: la gpu lavora sempre al 100%, mntre la percentuale di occupazione della cpu si abbassa

https://i.ibb.co/N9RsrQs/02-NO-DLSS.jpg (https://ibb.co/N9RsrQs)

DLSS OFF, VSYNC ON, rtx 4090 @ 2520mhz, : settaggio in undervolt per la gpu che è il mio daily; ovviamente in questo caso la gpu non supera mai l'80% di utilizzo (a tutto vantaggio delle temperature), e anche la cpu ha la sua percentuale di utilizzo più bassa

https://i.ibb.co/XxzNtq9/03-VSYNC.jpg (https://ibb.co/XxzNtq9)

Cutter90
31-03-2023, 14:51
cme è vero che in TLOU la cpu lavora molto di più che nella media di altri giochi tripla AAA: di seguito allego 3 screenshots, tutti realizzati in 4k dettagli ultra;

DLSS ON, VSYNC OFF, rtx 4090 @ 2830mhz: è il settagio con cui la mia cpu (un 11700 liscio) lavora in percentuale maggiore, mentre l'utilizzo dell gpu si attesta intorno al 90%

https://i.ibb.co/cgSNKZ8/01-SI-DLSS.jpg (https://ibb.co/cgSNKZ8)

DLSS OFF, VSYNC OFF, rtx 4090 @ 2830mhz: qua il discorso si ribalta: la gpu lavora sempre al 100%, mntre la percentuale di occupazione della cpu si abbassa

https://i.ibb.co/N9RsrQs/02-NO-DLSS.jpg (https://ibb.co/N9RsrQs)

DLSS OFF, VSYNC ON, rtx 4090 @ 2520mhz, : settaggio in undervolt per la gpu che è il mio daily; ovviamente in questo caso la gpu non supera mai l'80% di utilizzo (a tutto vantaggio delle temperature), e anche la cpu ha la sua percentuale di utilizzo più bassa

https://i.ibb.co/XxzNtq9/03-VSYNC.jpg (https://ibb.co/XxzNtq9)

Ecco, appunto. 19 gb di ram occupati, senza parole.

Ma tu in indle stai a 2520 mhz? Come mai così piano?

DJurassic
31-03-2023, 14:57
Si ma ghostwire ha un rt molto molto presente. E quello fa tutta la differenza del mondo, molto più che la densità poligonale a livello di performance.
Non si può giustificare lato cpu, ram e vram il consumo di tlou remake. E' davvero impossibile dai.
Non sto dicendo che fa cagare, sia chiaro. Ma che per la grafica che ha e la linearità che ha non è accettabile a livello di performance.

Avrà anche un RT presente ma di base è un gioco povero tecnicamente, non bello da vedere e comunque pesante da gestire. Tutta la vita un TLOU che senza RT gli è comunque superiore in ogni aspetto.

Eddie666
31-03-2023, 15:00
Ma tu in indle stai a 2520 mhz? Come mai così piano?

quello è il mio settaggio daily: la perdita di prestazioni è minima rispetto alla scheda al 100%, ma consumo un centinaio di watt in meno e ne guadagnano temperature e rumorosità (come vedi nell'ultimo screenshot le ventole della gpu mi girano al 30%, cioè meno di 1200rpm)

Salfox
31-03-2023, 15:01
cme è vero che in TLOU la cpu lavora molto di più che nella media di altri giochi tripla AAA

E ci credo, è uno dei pochi giochi che, finalmente, sfrutta tutti i core a disposizione Leggi qui (https://www.dsogaming.com/news/the-last-of-us-is-one-of-the-most-multi-threaded-pc-games-to-date-can-use-up-to-16-cpu-threads/).
Al contrario di quello che molti pensano questo è forse uno dei giochi che segnerà una svolta fondamentale nell'uso della CPU nei giochi e finalmente, come dovrebbe essere, chi ha più core gioca meglio.

Stig
31-03-2023, 15:07
quello è il mio settaggio daily: la perdita di prestazioni è minima rispetto alla scheda al 100%, ma consumo un centinaio di watt in meno e ne guadagnano temperature e rumorosità (come vedi nell'ultimo screenshot le ventole della gpu mi girano al 30%, cioè meno di 1200rpm)

forse non ho capito bene,
ma per "perdita minima", almeno dai tuoi screen, vedo un passaggio da 90 a 60 fps tra il secondo e terzo screen.

Sbaglio?

Eddie666
31-03-2023, 15:26
forse non ho capito bene,
ma per "perdita minima", almeno dai tuoi screen, vedo un passaggio da 90 a 60 fps tra il secondo e terzo screen.

Sbaglio?

VSYNC OFF nel primo e VSYNC ON nel secondo ;)

guarda,stessi settaggi (4K ultra, no DLSS, no VSYNC) stessa scena con la gpu a 2820 mhz nel primo, e 2520 mhz nell'altro....nota bene le temperature della gpu e il consumo:
https://i.ibb.co/sJB6HhQ/02-2820.jpg (https://ibb.co/sJB6HhQ) https://i.ibb.co/KFb16K7/02-2520.jpg (https://ibb.co/KFb16K7)

Stig
31-03-2023, 15:32
VSYNC OFF nel primo e VSYNC ON nel secondo ;)

guarda,stessi settaggi (4K ultra, no DLSS, no VSYNC) stessa scena con la gpu a 2820 mhz nel primo, e 2520 mhz nell'altro....nota bene le temperature della gpu e il consumo:
https://i.ibb.co/sJB6HhQ/02-2820.jpg (https://ibb.co/sJB6HhQ) https://i.ibb.co/KFb16K7/02-2520.jpg (https://ibb.co/KFb16K7)

non avevo notato il cap a 60 fps del vsync ON ;)

ora ha molto più senso :D

marbasso
31-03-2023, 15:37
VSYNC OFF nel primo e VSYNC ON nel secondo ;)

guarda,stessi settaggi (4K ultra, no DLSS, no VSYNC) stessa scena con la gpu a 2820 mhz nel primo, e 2520 mhz nell'altro....nota bene le temperature della gpu e il consumo:
https://i.ibb.co/sJB6HhQ/02-2820.jpg (https://ibb.co/sJB6HhQ) https://i.ibb.co/KFb16K7/02-2520.jpg (https://ibb.co/KFb16K7)

Scusa ma i 0.885v li hai impostati tu in curva su afterburner???

StylezZz`
31-03-2023, 15:51
E ci credo, è uno dei pochi giochi che, finalmente, sfrutta tutti i core a disposizione Leggi qui (https://www.dsogaming.com/news/the-last-of-us-is-one-of-the-most-multi-threaded-pc-games-to-date-can-use-up-to-16-cpu-threads/).
Al contrario di quello che molti pensano questo è forse uno dei giochi che segnerà una svolta fondamentale nell'uso della CPU nei giochi e finalmente, come dovrebbe essere, chi ha più core gioca meglio.

Esatto, finalmente potremo dare un senso a cpu da 600€ grazie a porting mediocri come questo :sofico:

Eddie666
31-03-2023, 16:03
Scusa ma i 0.885v li hai impostati tu in curva su afterburner???

si, dopo aver fatto un po' di prove scendendo di frequenza fino a trovare quella che ritenessi accettabile in termine di perdita di performance, ho lavorato sul voltaggio per trovare il minimo quello minimo che però mi garantisse stabilità al 99,9999% (non dico 100% perché, anche se ad oggi non mi è mai crashato nulla nonostante le sessioni di gioco e bench fatti, non si può mai sapere :D )

Salfox
31-03-2023, 16:04
Esatto, finalmente potremo dare un senso a cpu da 600€ grazie a porting mediocri come questo :sofico:

Io devo ancora capire che ci stai a fare tu in questo thread con i tuoi post sempre pieni di i Nvidia :D :D :D .
Per giocare tieni presente che esistono sempre le console, non devi per forza farlo su PC :D :D :D

Cutter90
31-03-2023, 16:19
E ci credo, è uno dei pochi giochi che, finalmente, sfrutta tutti i core a disposizione Leggi qui (https://www.dsogaming.com/news/the-last-of-us-is-one-of-the-most-multi-threaded-pc-games-to-date-can-use-up-to-16-cpu-threads/).
Al contrario di quello che molti pensano questo è forse uno dei giochi che segnerà una svolta fondamentale nell'uso della CPU nei giochi e finalmente, come dovrebbe essere, chi ha più core gioca meglio.

Si ma li usa " a caso". Nel senso che poteva usarne molti meno di core. Non c'è fisica ne rt a gravare sulla cpu, che sono i due aspetti che gravano sulla cpu di solito. Quindi il fatto che richieda così tanta cpu è una cosa negativa perchè nopn trova corrispondenza della grafica...

micronauta1981
31-03-2023, 16:19
Lo stuttering di last of us, è colpa del jiddering del mouse . usando un pad scompare,non appena si muove la visuale con il mouse riappare..lo sanno e stanno cercando un rimedio..cmq a me il gioco non fa impazzire.. è troppo guidato,non c'è niente di innovativo .mi sembra di giocare a Resident evil..meccaniche di gioco vecchie,movimenti impacciati,anche graficamente si vede che è un gioco vecchiotto... la storia è carina,ma per me è un gioco ultra sopravvalutato .

Cutter90
31-03-2023, 16:21
Avrà anche un RT presente ma di base è un gioco povero tecnicamente, non bello da vedere e comunque pesante da gestire. Tutta la vita un TLOU che senza RT gli è comunque superiore in ogni aspetto.

No aspetta, io non sto facendo un confronto tecnico tra i due. Sto dicendo che il RT di Ghostwire è più pesante da gestire del non rt di tlou. Tutto qui. Che poi tlou abbia una mole poligonale superiore è evidente. Come è evidente che senza RT i riflessi e le ombre non siano quelli di Ghostwire tokyo...

Cutter90
31-03-2023, 16:22
Lo stuttering di last of us, è colpa del jiddering del mouse . usando un pad scompare,non appena si muove la visuale con il mouse riappare..lo sanno e stanno cercando un rimedio..cmq a me il gioco non fa impazzire.. è troppo guidato,non c'è niente di innovativo .mi sembra di giocare a Resident evil..meccaniche di gioco vecchie,movimenti impacciati,anche graficamente si vede che è un gioco vecchiotto... la storia è carina,ma per me è un gioco ultra sopravvalutato .

No beh, piano. Ai tempi quando uscì era un capolavoro a tutto tondo

marbasso
31-03-2023, 16:27
si, dopo aver fatto un po' di prove scendendo di frequenza fino a trovare quella che ritenessi accettabile in termine di perdita di performance, ho lavorato sul voltaggio per trovare il minimo quello minimo che però mi garantisse stabilità al 99,9999% (non dico 100% perché, anche se ad oggi non mi è mai crashato nulla nonostante le sessioni di gioco e bench fatti, non si può mai sapere :D )

Non capisco come mai io non riesco a scendere sotto i 0.895v. posso impostare quello che voglio sotto ma sempre poi agli 0.895v ritorna... :(

StylezZz`
31-03-2023, 16:30
Io devo ancora capire che ci stai a fare tu in questo thread con i tuoi post sempre pieni di i Nvidia :D :D :D .
Per giocare tieni presente che esistono sempre le console, non devi per forza farlo su PC :D :D :D

No grazie, gioco alla grande su pc e per le mie necessità sono pienamente soddisfatto ;)

Però adesso mi spieghi come fa un remake di una remastered di un gioco di 10 anni fa a richiedere così tante risorse, e mi aspetto una risposta tecnica che giustifichi questo uso intenso dei cores, per non parlare della ram occupata, se non si hanno 32GB ha problemi. Intanto su PS5 che ha una cpu paragonabile ad un 3700x non mi pare ci sia tutto questo dramma.

davide155
31-03-2023, 17:51
No grazie, gioco alla grande su pc e per le mie necessità sono pienamente soddisfatto ;)



Però adesso mi spieghi come fa un remake di una remastered di un gioco di 10 anni fa a richiedere così tante risorse, e mi aspetto una risposta tecnica che giustifichi questo uso intenso dei cores, per non parlare della ram occupata, se non si hanno 32GB ha problemi. Intanto su PS5 che ha una cpu paragonabile ad un 3700x non mi pare ci sia tutto questo dramma.

Assodato che lo studio che ha curato il porting è lo stesso che fecero dei casini incredibili con Batman qualche anno fa, la questione delle risorse sarebbe anche accettabile dato che dipende molto dal motore grafico e da come vengono impiegate le risorse....
Callisto protocol ha un uso scandaloso dei core ad esempio. Ed infatti stuttera come un cane.
Tlou a parte i crash relativi ad un problema driver nvidia (già riconosciuto ufficialmente) gira con una fluidità disarmante. È bellissimo da vedere e non ha la minima incertezza.
Se il risultato di avere sedici core occupati, o metà ram piena, è sinonimo di fluidità e grafica di alto livello, allora ben venga tutto questo.
E comunque perdonarmi ma 32gb di ram ddr4 ad oggi si trovano a 90euro nuove, non vedo dove sia il problema.
Il progresso su pc è sempre stato accompagnato da un aumento di richiesta di potenza di calcolo, di gigabyte di dati disponibili e di svariati gb di ram.
Se diciamo sempre che schifo anche dinnanzi ad una piccola perla come tlou allora possiamo tornare a giocare a freccette.

Cutter90
31-03-2023, 18:25
Assodato che lo studio che ha curato il porting è lo stesso che fecero dei casini incredibili con Batman qualche anno fa, la questione delle risorse sarebbe anche accettabile dato che dipende molto dal motore grafico e da come vengono impiegate le risorse....
Callisto protocol ha un uso scandaloso dei core ad esempio. Ed infatti stuttera come un cane.
Tlou a parte i crash relativi ad un problema driver nvidia (già riconosciuto ufficialmente) gira con una fluidità disarmante. È bellissimo da vedere e non ha la minima incertezza.
Se il risultato di avere sedici core occupati, o metà ram piena, è sinonimo di fluidità e grafica di alto livello, allora ben venga tutto questo.
E comunque perdonarmi ma 32gb di ram ddr4 ad oggi si trovano a 90euro nuove, non vedo dove sia il problema.
Il progresso su pc è sempre stato accompagnato da un aumento di richiesta di potenza di calcolo, di gigabyte di dati disponibili e di svariati gb di ram.
Se diciamo sempre che schifo anche dinnanzi ad una piccola perla come tlou allora possiamo tornare a giocare a freccette.
Il problema è che quello che dici sul progresso è pire giusto. Ma tlou non lo è su pc. Non ha una super grafica, non ha rt ne una super fisica. È un lineare. Su pc ci sono almeno 20 giochi con la grafica migliore e soluzioni nettamente più pesanti.
TUTTI girano con 16 gb di ram e giochi con più fisica e più aperti consumano la metà della cpu.
Qui non si tratta della bontà del gioco, ma del fatto che, per l ennesimo gioco, le risorse su pcn vengano usate molto molto male per la mancanza di competenze/voglia di programmare.

StylezZz`
31-03-2023, 18:26
Assodato che lo studio che ha curato il porting è lo stesso che fecero dei casini incredibili con Batman qualche anno fa, la questione delle risorse sarebbe anche accettabile dato che dipende molto dal motore grafico e da come vengono impiegate le risorse....
Callisto protocol ha un uso scandaloso dei core ad esempio. Ed infatti stuttera come un cane.
Tlou a parte i crash relativi ad un problema driver nvidia (già riconosciuto ufficialmente) gira con una fluidità disarmante. È bellissimo da vedere e non ha la minima incertezza.
Se il risultato di avere sedici core occupati, o metà ram piena, è sinonimo di fluidità e grafica di alto livello, allora ben venga tutto questo.
E comunque perdonarmi ma 32gb di ram ddr4 ad oggi si trovano a 90euro nuove, non vedo dove sia il problema.
Il progresso su pc è sempre stato accompagnato da un aumento di richiesta di potenza di calcolo, di gigabyte di dati disponibili e di svariati gb di ram.
Se diciamo sempre che schifo anche dinnanzi ad una piccola perla come tlou allora possiamo tornare a giocare a freccette.

Il progresso appunto, dove sarebbe il progresso in un gioco old gen (''remake'') come questo? Potrei capire fosse stato un giocone nuovo ai livelli di RDR2 in UE5 (questo sarebbe il progresso!), ma qua siamo completamente fuori.

Io di ram ne ho 32GB, ma questo è un porting che ha bisogno di essere sistemato, nessuna giustificazione.

DJurassic
31-03-2023, 18:56
Su pc ci sono almeno 20 giochi con la grafica migliore

Mi piacerebbe sapere chi sono questi 20, perchè io al massimo ne arrivo a contare qualcuno. Grafica vuol dire anche animazioni, volti, interazione, cura dei dettagli... In TLOU tutto o quasi quello che è rappresentato è realizzato con cura e nulla è lasciato al caso. Pochi giochi possono vantare la stessa qualità.

E di certo non basta attivare il RT per affermare che quel gioco ha una grafica migliore, magari fosse così facile.

Intendiamoci, non sto entrando nel merito del tuo discorso circa l'ottimizzazione. Ma forse si sta facendo passare questo gioco come uno dei tanti quando è esattamente l'opposto.

lordsnk
31-03-2023, 19:00
Il progresso appunto, dove sarebbe il progresso in un gioco old gen (''remake'') come questo? Potrei capire fosse stato un giocone nuovo ai livelli di RDR2 in UE5 (questo sarebbe il progresso!), ma qua siamo completamente fuori.

Io di ram ne ho 32GB, ma questo è un porting che ha bisogno di essere sistemato, nessuna giustificazione.

Tanto per far chiarezza, il gioco per ps3 con questo, da un punto di vista tecnico, ha ben poco da spartire.
Nel remake si usa un nuovo engine grafico i vari modelli sono stati rifatti da zero, è stata migliorata anche l'IA dei nemici sono state utilizzate nuove texture a 4k, è stata introdotta la nebbia volumetrica, la gestione dell'illuminazione anche senza rtx è stata aggiornata.
Ripeto questo remake non è il classico gioco in cui è stata alzata la risoluzione è cambiate le texture.

micronauta1981
31-03-2023, 19:02
Non è un gioco tecnicamente eccellente.. è un buon gioco,ma nulla di che..si vede dai..in alcuni punti se guardi fuori dalle finestre vedi il mondo esterno a cubettoni��������. l'illuminazione è piatta,le ombre non sono malaccio,ma se le guardi da vicino molte sono pixellate. I riflessi seppur dignitosi,sono anni luce da dei veri riflessi raytracing. Si belle animazioni,bei dialoghi,sembra meglio di quello che è perché è "curato",ma è tutto fumo e niente arrosto .

micronauta1981
31-03-2023, 19:13
L'ia degli umani non è malaccio,almeno a difficile,si riparano quando li miri e hanno dei buoni tempi di reazione,i mostri,hanno dei pattern ridicoli.. girano nello stesso punto in cerchio a ripetizione..ripeto non è malaccio,ma di sicuro non è il capolavoro che dipingevano i consolari ..

micronauta1981
31-03-2023, 19:23
La cosa che più da noia comunque è lo stuttering del mouse,anche a 100 fps sembra di essere a 30 fps ..con il joypad non riesco neanche a muovermi io 😂😂😂😂lo sto giocando così con il mouse ma da veramente fastidio

davide155
31-03-2023, 19:32
Il problema è che quello che dici sul progresso è pire giusto. Ma tlou non lo è su pc. Non ha una super grafica, non ha rt ne una super fisica. È un lineare. Su pc ci sono almeno 20 giochi con la grafica migliore e soluzioni nettamente più pesanti.
TUTTI girano con 16 gb di ram e giochi con più fisica e più aperti consumano la metà della cpu.
Qui non si tratta della bontà del gioco, ma del fatto che, per l ennesimo gioco, le risorse su pcn vengano usate molto molto male per la mancanza di competenze/voglia di programmare.

Ma chi lo dice che vengono usate male? Tu? Con tutto il rispetto, ma chi sei per asserire ciò? Sei un programmatore nella vita? Perché tutta questa sicurezza che avete nello sparare a zero su tutto e tutti non riesco a capire da dove viene fuori. Oppure sto pensando che non lo hai nemmeno avviato.
Altrimenti non avresti usato queste parole.
Io sono un fautore della super grafica, e ti posso assicurare che con tlou remake hanno fatto un lavoro egregio. Indipendentemente che abbia zero o mille npc, che sia tutto distruttibile o no, o che abbia 200 raggi per poligono di raytracing o no, con 7 ore all'attivo su tlou pc posso tranquillamente affermare che siamo a livelli altissimi.
Il progresso appunto, dove sarebbe il progresso in un gioco old gen (''remake'') come questo? Potrei capire fosse stato un giocone nuovo ai livelli di RDR2 in UE5 (questo sarebbe il progresso!), ma qua siamo completamente fuori.

Io di ram ne ho 32GB, ma questo è un porting che ha bisogno di essere sistemato, nessuna giustificazione.

Che debba essere sistemato siamo assolutamente d'accordo. Infatti io l'ho accantonato in attesa di driver nuovi nvidia.
Comunque ue5 non è sempre sinonimo di super grafica. Se non c'è uno studio artistico dietro si fanno cagate anche con quel motore eh.
Tlou artisticamente è una opera darte, col remake hanno preso quello che avevano fatto anni fa e lo hanno portato ad un livello molto più alto.
Un gioco per essere definito giocone quindi secondo te deve essere un open world?

davide155
31-03-2023, 19:38
Tanto per far chiarezza, il gioco per ps3 con questo, da un punto di vista tecnico, ha ben poco da spartire.

Nel remake si usa un nuovo engine grafico i vari modelli sono stati rifatti da zero, è stata migliorata anche l'IA dei nemici sono state utilizzate nuove texture a 4k, è stata introdotta la nebbia volumetrica, la gestione dell'illuminazione anche senza rtx è stata aggiornata.

Ripeto questo remake non è il classico gioco in cui è stata alzata la risoluzione è cambiate le texture.È inutile.....non sanno apprezzare certe trasposizioni grafiche.
Il remake ed il gioco su ps3 sono due cose completamente diverse. Ed io che finii l'originale su ps3, rigiocando questo mi ha lasciato a bocca aperta. In 4k con tutti i dettagli ad ultra resistuisce una immagine assolutamente di alto livello.

micronauta1981
31-03-2023, 19:49
È inutile.....non sanno apprezzare certe trasposizioni grafiche.
Il remake ed il gioco su ps3 sono due cose completamente diverse. Ed io che finii l'originale su ps3, rigiocando questo mi ha lasciato a bocca aperta. In 4k con tutti i dettagli ad ultra resistuisce una immagine assolutamente di alto livello.

Ma qua si parla di eccellenza grafica. Sicuramente sarà meglio di quello della PS3 costa 60€,ci mancava che era uguale 😂😂😂😂 non confondete l'artistico con il tecnico ..che poi anche li avrei da ridire... è un gioco ultra pompato dai media,buono ma niente di che .

Cutter90
31-03-2023, 19:58
Ma chi lo dice che vengono usate male? Tu? Con tutto il rispetto, ma chi sei per asserire ciò? Sei un programmatore nella vita? Perché tutta questa sicurezza che avete nello sparare a zero su tutto e tutti non riesco a capire da dove viene fuori. Oppure sto pensando che non lo hai nemmeno avviato.
Altrimenti non avresti usato queste parole.
Io sono un fautore della super grafica, e ti posso assicurare che con tlou remake hanno fatto un lavoro egregio. Indipendentemente che abbia zero o mille npc, che sia tutto distruttibile o no, o che abbia 200 raggi per poligono di raytracing o no, con 7 ore all'attivo su tlou pc posso tranquillamente affermare che siamo a livelli altissimi.


Che debba essere sistemato siamo assolutamente d'accordo. Infatti io l'ho accantonato in attesa di driver nuovi nvidia.
Comunque ue5 non è sempre sinonimo di super grafica. Se non c'è uno studio artistico dietro si fanno cagate anche con quel motore eh.
Tlou artisticamente è una opera darte, col remake hanno preso quello che avevano fatto anni fa e lo hanno portato ad un livello molto più alto.
Un gioco per essere definito giocone quindi secondo te deve essere un open world?

E chi lo dice che vengono invece usate bene? Tu? Stesso discorso.
Stasera se sistemo il PC lo avvio, ma i video sono lì a dimostrare che graficamente non è nulla di speciale.
Rdr2, cp2077, Metro Enanched, days gone, Control, Horizon, god of war, a plague tale, miles morales ecc ecc sono solo alcuni titoli che mi vengono in mente al volo che sono nel complesso superiori a tlou tecnicamente.
Tutti i giochi sopra citati non richiedono tutta la cpu di tlou né soprattutto la ram.
Perché invece non mi dite il perché 19 gb di ram sono giustificati? O la cpu?
Devono sistemarlo altroché. E non capisco come mai ci sia questa difesa insensata verso questo titolo quando altri sono stati, giustamente, massacrati

Cutter90
31-03-2023, 20:02
Mi piacerebbe sapere chi sono questi 20, perchè io al massimo ne arrivo a contare qualcuno. Grafica vuol dire anche animazioni, volti, interazione, cura dei dettagli... In TLOU tutto o quasi quello che è rappresentato è realizzato con cura e nulla è lasciato al caso. Pochi giochi possono vantare la stessa qualità.

E di certo non basta attivare il RT per affermare che quel gioco ha una grafica migliore, magari fosse così facile.

Intendiamoci, non sto entrando nel merito del tuo discorso circa l'ottimizzazione. Ma forse si sta facendo passare questo gioco come uno dei tanti quando è esattamente l'opposto.
Per quanto riguarda la "grafica" con RT.... se non c'è RT sui riflessi i riflessi sono peggiori. Sull occlusione ambientale idem, ombre idem. Se c'è il RT l illuminazione è migliore rispetto a non averla. E questo è un dato di fatto. La grafica non è solo illuminazione ci mancherebbe. Ma è un bel 50 % secondo me.
Inoltre è il RT a gravare sulle performance nei titoli moderni. Quindi se il gioco non ha una grafica fuori parametro ne RT e richiede risorse elevatissime essendo pure un lineare con zero fisica è programmato male.
Nessuno dice che graficamente fa pena. Non lo direi mai

micronauta1981
31-03-2023, 20:05
Lo dico io che fa pena 😂😂😂😂 pena no,scherzo,ma si vede tantissimo che il gioco base ha 10 anni . è come una signora anziana che si rifà il seno e le labbra,bene ma non benissimo 😂😂😂

amon.akira
31-03-2023, 20:45
ma perchè è pesante? io lo considero leggero, last of us e re4 fanno 120fps senza dlss

ghostwire callisto cp2077 e altri che hanno il raytracing non ci arrivano.

fare certe cose in raster può essere ugualmente pesante per la cpu, ecco perchè non ha senso e in futuro vedremo sempre piu RT, ha un sacco di roba sulle ombre tipo...cmq mi sembra che lo scrivono a fianco su ogni opzioni se grava di piu sulla cpu gpu etc...

per me ripeto last of us e re4 (ha un rt leggero) o un atomicheart senza rt sono titoli leggeri se confrontati con altri veramente pesanti, ma anche callisto senza rt diventa leggero...dead space per dire già è un po piu pesante di last of us ed è sempre un remake di un vecchio titolo.

Cutter90
31-03-2023, 20:49
Minchia la precompilazione degli shader è bella lunghetta eh. E sta tirando 240 watt costanti di cpu, spero regga. Meni male che ho un sistema di raffreddamento della Madonna. 70 gradi belli fissi. È un bench di fatto
Lato opzioni grafiche nulla da dire: è davvero molto molto curato. Vediamo come vado con i miei 16 gb di ram.
6k e dlss 3.1 pronti

Ps: con annesso gamma shifting mostruoso del mio c9 oled

lordsnk
31-03-2023, 20:58
Ma qua si parla di eccellenza grafica. Sicuramente sarà meglio di quello della PS3 costa 60€,ci mancava che era uguale 😂😂😂😂 non confondete l'artistico con il tecnico ..che poi anche li avrei da ridire... è un gioco ultra pompato dai media,buono ma niente di che .

Se l'avessi giocato su ps3 all'epoca non diresti certe cose :D
Non sto dicendo che è il non plus ultra da un punto di vista tecnico, ma rimane cmq un capolavoro come esperienza videoludica.
Quando si gioca un remake o remastered bisogna mettere sempre in conto che alcuni aspetti del gameplay sono invecchiati.

P.S. prova a giocarlo con la camera al buio, le cuffie e senza l'abilità ascolto e poi ne riparliamo :D

micronauta1981
31-03-2023, 21:09
Se l'avessi giocato su ps3 all'epoca non diresti certe cose :D
Non sto dicendo che è il non plus ultra da un punto di vista tecnico, ma rimane cmq un capolavoro come esperienza videoludica.
Quando si gioca un remake o remastered bisogna mettere sempre in conto che alcuni aspetti del gameplay sono invecchiati.

P.S. prova a giocarlo con la camera al buio, le cuffie e senza l'abilità ascolto e poi ne riparliamo :D
Gioco con le tiamat 7.1 reali collegate in analogico a una creative x4,sempre con stanza semioscurata,e l'abilità ascolto se non leggevo oggi nel rimappare i tasti che c'era non sapevo neanche della sua esistenza dopo 7 ore ������

davide155
31-03-2023, 21:46
E chi lo dice che vengono invece usate bene? Tu? Stesso discorso.

Stasera se sistemo il PC lo avvio, ma i video sono lì a dimostrare che graficamente non è nulla di speciale.

Rdr2, cp2077, Metro Enanched, days gone, Control, Horizon, god of war, a plague tale, miles morales ecc ecc sono solo alcuni titoli che mi vengono in mente al volo che sono nel complesso superiori a tlou tecnicamente.

Tutti i giochi sopra citati non richiedono tutta la cpu di tlou né soprattutto la ram.

Perché invece non mi dite il perché 19 gb di ram sono giustificati? O la cpu?

Devono sistemarlo altroché. E non capisco come mai ci sia questa difesa insensata verso questo titolo quando altri sono stati, giustamente, massacrati

Già reputare cyberpunk e metro enanched il top della grafica mi fa storcere il naso. Ma comunque se a te piacciono tanto ok, ma non li reputo affatto dei capolavori a livello tecnico. Soprattutto metro che a tlou non gli lega nemmen le scarpe.
Gli altri sono ottimi titoli, non per nulla il 90% dei titoli da te elencati sono porting da ps. Ed un motivo ci sarà se li preferiamo così tanto. E non è per affezionamento al marchio nipponico. Bensì sono stati realizzati ad arte.
Horizon pure fu protagonista di un porting fatto coi piedi, con tantissimi bug. E non era certo leggerissimo appena uscito. Ricordo con la 1080ti faticavo in 1440p.
Tlou invece tiene gli 80-100fps granitici in 1440p con tutto al massimo, su una gpu di scorsa generazione tra l'altro.
Non capisco tutto questo stupore da dove viene.
La ram occupata non so dove abbiate visto i 19gb ma a me se arriva a 13gb è oro colato. In 4k dldsr a stento tocca 15gb.
Ma poi anche fosse 19, nel 2023 con una 4090 nel case è il minimo avere 32gb di ram.

Matz
31-03-2023, 22:03
Ma chi lo dice che vengono usate male? Tu? Con tutto il rispetto, ma chi sei per asserire ciò? Sei un programmatore nella vita? Perché tutta questa sicurezza che avete nello sparare a zero su tutto e tutti non riesco a capire da dove viene fuori. Oppure sto pensando che non lo hai nemmeno avviato.
Altrimenti non avresti usato queste parole.
Io sono un fautore della super grafica, e ti posso assicurare che con tlou remake hanno fatto un lavoro egregio. Indipendentemente che abbia zero o mille npc, che sia tutto distruttibile o no, o che abbia 200 raggi per poligono di raytracing o no, con 7 ore all'attivo su tlou pc posso tranquillamente affermare che siamo a livelli altissimi.


Che debba essere sistemato siamo assolutamente d'accordo. Infatti io l'ho accantonato in attesa di driver nuovi nvidia.
Comunque ue5 non è sempre sinonimo di super grafica. Se non c'è uno studio artistico dietro si fanno cagate anche con quel motore eh.
Tlou artisticamente è una opera darte, col remake hanno preso quello che avevano fatto anni fa e lo hanno portato ad un livello molto più alto.
Un gioco per essere definito giocone quindi secondo te deve essere un open world?

Bravo ��

quoto in pieno… messaggi successivi compresi ;)

Cutter90
31-03-2023, 22:08
Già reputare cyberpunk e metro enanched il top della grafica mi fa storcere il naso. Ma comunque se a te piacciono tanto ok, ma non li reputo affatto dei capolavori a livello tecnico. Soprattutto metro che a tlou non gli lega nemmen le scarpe.
Gli altri sono ottimi titoli, non per nulla il 90% dei titoli da te elencati sono porting da ps. Ed un motivo ci sarà se li preferiamo così tanto. E non è per affezionamento al marchio nipponico. Bensì sono stati realizzati ad arte.
Horizon pure fu protagonista di un porting fatto coi piedi, con tantissimi bug. E non era certo leggerissimo appena uscito. Ricordo con la 1080ti faticavo in 1440p.
Tlou invece tiene gli 80-100fps granitici in 1440p con tutto al massimo, su una gpu di scorsa generazione tra l'altro.
Non capisco tutto questo stupore da dove viene.
La ram occupata non so dove abbiate visto i 19gb ma a me se arriva a 13gb è oro colato. In 4k dldsr a stento tocca 15gb.
Ma poi anche fosse 19, nel 2023 con una 4090 nel case è il minimo avere 32gb di ram.

Metro enanched è un mezzo open wolrd con il RT nella GI tra i più avanzati, come non gli lega le scarpe? Ha una vastita e una fisica 10 volte tlou. Ragazzi, mo va bene tutto, ma magari valutiamoli nel complesso sti giochi tecnicamente.
Ecco è l'ultima frase che non sta ne in cielo e ne in terra. Adesso avere 32 gb dipende dall'anno in cui siamo? Che scemo io, pensavo dipendesse da quanto tecnicamente avanzato fosse il gioco che la consuma! :mbe: , Ripeto e poi basta. Tutti i giochi da me citati non consumano così tanta ram e tecnicamente a tlou in alcuni aspetti se lo mangiano.

Cmq, vengo dai primi test. In 6k con dlss quality è davvero notevole, non c'è che dire. Ma come previsto si ha qualche intoppo di troppo. Giocandolo così faccio 75 fps e ci sta (gli stessi fps di Ghostwire). Nativo 4k ne faccio 82. IL problema è che in dlss quality partendo dal 4k ne faccio 86 perchè la cpu non ce la fa. E questo è abbastanza scandaloso considerando che sono subito dopo che apro il cancelletto con Tess. Quindi si, deve decisamente essere sistemato, perchè come avevo visto consuma tanta cpu senza motivo. LA ram invece mi ha in parte sorpreso, arrivando a 14 e qualcosa. Strano, perchè dai video che ho visto arrivava pure a 19..... saranno state le patch?
Nativo
https://i.imgur.com/zDl6yLC.jpg
dlss dal 4k
https://i.imgur.com/Ou9u604.jpg
Dlss dal 6k
https://i.imgur.com/EFoABNA.jpg

Naturalmente in 6k dldsr Più dlss ha la definizione top

wulff73
31-03-2023, 22:13
Giocandolo così faccio 75 fps e ci sta (gli stessi fps di Ghostwire). Nativo 4k ne faccio 82. IL problema è che in dlss quality partendo dal 4k ne faccio 86 perchè la cpu non ce la fa.

Con che cpu? Quella in firma?

davide155
31-03-2023, 22:24
Cutter

Dai su, Metro avrà anche un sistema di illuminazione avanzato, ma a livello poligonale, di animazioni facciali ed a livello ragdoll era di gran lunga sotto tono (e voglio essere genitile). Tlou ha un livello di dettaglio sulle textures che in pochi altri giochi ho visto.

Per quanto riguarda la cpu sei fortemente cpu limited con una 4090. Ma questo non solo con tlou e non solo con la 4090, lo saresti anche con una 3090, ed anche in 4k.
Il quantitativo di ram consigliata va di pari passo con l'avanzamento dei requisiti dei vari giochi e/o programmi. E volente o nolente cresce di pari passo col tempo, quindi si, più avanti si va e più ram ci vorrà, indipendentemente che il gioco venga ottimizzato o meno. E' una cosa fisiologica intrinseca al mondo della programmazione su pc.

StylezZz`
31-03-2023, 22:27
La ram occupata non so dove abbiate visto i 19gb ma a me se arriva a 13gb è oro colato. In 4k dldsr a stento tocca 15gb

1440p ultra + DLSS Quality, 17GB occupati già nel prologo:

https://i.imgur.com/zCbVHRt.png

Cutter90
31-03-2023, 22:33
Cutter

Dai su, Metro avrà anche un sistema di illuminazione avanzato, ma a livello poligonale, di animazioni facciali ed a livello ragdoll era di gran lunga sotto tono (e voglio essere genitile). Tlou ha un livello di dettaglio sulle textures che in pochi altri giochi ho visto.

Per quanto riguarda la cpu sei fortemente cpu limited con una 4090. Ma questo non solo con tlou e non solo con la 4090, lo saresti anche con una 3090, ed anche in 4k.
Il quantitativo di ram consigliata va di pari passo con l'avanzamento dei requisiti dei vari giochi e/o programmi. E volente o nolente cresce di pari passo col tempo, quindi si, più avanti si va e più ram ci vorrà, indipendentemente che il gioco venga ottimizzato o meno. E' una cosa fisiologica intrinseca al mondo della programmazione su pc.

Non hai capito. Solo in the last of us sono cpu limited addirittura sotto i 120. Ed è il primo e unico gioco che mi limita la 4090. Quindi non è assolutamente colpa della cpu, ma del gioco.
Non sai di cosa parli quandi dici che soni cpu limited anche con una 3090 addirittura.
Rispeto: sotto i 120 tlou è il primo gioco in cui la cpu mi limita. Ma il limite qui è tutto del gioco.
La ram va di pari passo con i requisiti, concordo. I requisiti vanno di pari passo con il progresso tecnico nei giochi? Perché se la risposta è negativa ( e in questo e molti altri purtroppo lo è) allora anche la richiesta della ram è ingiustificata....

amon.akira
31-03-2023, 23:31
cutter mi fai vedere l inquadratura completa, vorrei replicare il tuo screenshot con la mia cpu, sempre per la scienza ^^'

wulff73
31-03-2023, 23:46
Comunque ho fatto un paio di video dei primi 20 minuti di questo famigerato (per alcuni) gioco con la 4090 ed il 5800X3D in 4K Ultra sia in nativo che in DLSS Quality....c'è solo da aspettare qualche oretta che finisca l'elaborazione sul secondo:

Nativo 4K Ultra (https://www.youtube.com/watch?v=M-Bxw_I-Ms4)

DLSS Quality 4K Ultra (https://www.youtube.com/watch?v=OBSeHF4-JIw)

PS: Per notizia ho il gioco dal day 1 e problemi di crash o altro non ne ho avuti. All'inizio c'ha messo un quarto d'ora esatto per la compilazione degli shader (dove la cpu effettivamente ha lavorato a cannone) e le uniche scocciature per i miei gusti sono i caricamenti un po' lunghi quando si inizia una partita da un salvataggio e la temperatura della cpu che va ottimizzata meglio dalla software house. Detto questo la grafica è ottima e da quello che si legge in giro sto gioco potrebbe aver fatto un po' da "moralizzatore" imho con chi forse tiene overclock non proprio stabili, case poco areati magari con dissipazioni borderline oppure con chi ha provato ad alzare un po' troppo i settings qualitativi del gioco in rapporto al proprio hardware magari con la propria parte software non proprio a "puntino"...

DJurassic
31-03-2023, 23:49
Per quanto riguarda la "grafica" con RT.... se non c'è RT sui riflessi i riflessi sono peggiori. Sull occlusione ambientale idem, ombre idem. Se c'è il RT l illuminazione è migliore rispetto a non averla. E questo è un dato di fatto. La grafica non è solo illuminazione ci mancherebbe. Ma è un bel 50 % secondo me.
Inoltre è il RT a gravare sulle performance nei titoli moderni. Quindi se il gioco non ha una grafica fuori parametro ne RT e richiede risorse elevatissime essendo pure un lineare con zero fisica è programmato male.
Nessuno dice che graficamente fa pena. Non lo direi mai

Si ok, stai descrivendo cose che sappiamo tutti. Io volevo sapere quali sono quei 20 titoli che gli mangiano in testa complessivamente perchè se è vero che ci sono è anche vero che sono decisamente molti di meno di venti.

amon.akira
31-03-2023, 23:49
dovrebbe essere qui piu o meno credo come inquadratura

4k nativo

https://i.ibb.co/6XGKGsR/4k.jpg (https://ibb.co/6XGKGsR)

4k dlss quality

https://i.ibb.co/d4S6Mtv/dlss-4k.jpg (https://ibb.co/d4S6Mtv)

DJurassic
01-04-2023, 04:03
Qualche screenshots di questo gioco "niente di che" :asd:

https://live.staticflickr.com/65535/52784825214_884fa4b567_k.jpg ('https://live.staticflickr.com/65535/52784825214_52a5c2264c_o.png')
https://live.staticflickr.com/65535/52784586136_58db1ca598_k.jpg ('https://live.staticflickr.com/65535/52784586136_ca97aef2a8_o.png')
https://live.staticflickr.com/65535/52784586496_fdc4026f27_k.jpg ('https://live.staticflickr.com/65535/52784586496_8c8be838ac_o.png')
https://live.staticflickr.com/65535/52785039603_c4ec75fe59_k.jpg ('https://live.staticflickr.com/65535/52785039603_47a60cde31_o.png')
https://live.staticflickr.com/65535/52784824854_95038fbb1a_k.jpg ('https://live.staticflickr.com/65535/52784824854_77a9a281fa_o.png')
https://live.staticflickr.com/65535/52785042918_98e26d3f99_k.jpg ('https://live.staticflickr.com/65535/52785042918_e252a4d455_o.png')
https://live.staticflickr.com/65535/52784035237_aca06ff148_k.jpg ('https://live.staticflickr.com/65535/52784035237_37190babc4_o.png')

Cutter90
01-04-2023, 06:05
dovrebbe essere qui piu o meno credo come inquadratura

4k nativo

https://i.ibb.co/6XGKGsR/4k.jpg (https://ibb.co/6XGKGsR)

4k dlss quality

https://i.ibb.co/d4S6Mtv/dlss-4k.jpg (https://ibb.co/d4S6Mtv)

Esatto è lì. Ma occhio che hai qualche impostazione non al massimo evidentemente. Perché in 4k in quel punto non puoi fare 97 fps e 130 in dlss quality. Tutti i video che ho visto in rete in quel punto fanno 4-5 fps più di me con 13900k. Tu ne fai 10 e passa e non è possibile
Esempio: minuto 19. https://www.youtube.com/watch?v=_jiDEh7gmWw
Cmq vai un pelino avanti e poi fai "rinizia al checkpoit" e senza più muovere la visuale vedi che fai sull'ottantina di fps in 4k nativo.

Fos
01-04-2023, 07:03
1440p ultra + DLSS Quality, 17GB occupati già nel prologo...Se hai meno VRAM si appoggia di più sulla RAM, un classico.
Comunque, finché cerca di sfruttare quella che c'è fa solo bene, bisogna vedere come reagirebbe con 16GB nello stesso contesto.
Finita la compilazione è meglio riavviare il gioco, potrebbero rimanere qualcosa di troppo in RAM.

sertopica
01-04-2023, 07:08
Qualche screenshots di questo gioco "niente di che" :asd:


Bello e' bello, soprattutto grazie alla direzione artistica, ma si vede che e' il remaster di un titolo datato, anche se hanno rifatto gran parte degli assets, illuminazione, textures & co.

Obiettivamente ci sono titoli tecnicamente superiori.

Intel-Inside
01-04-2023, 08:17
dovrebbe essere qui piu o meno credo come inquadratura…

I dati a schermo è sempre Afterburner? Come si configura in quel modo?

Cutter90
01-04-2023, 08:26
Qualche screenshots di questo gioco "niente di che" :asd:

https://live.staticflickr.com/65535/52784825214_884fa4b567_k.jpg ('https://live.staticflickr.com/65535/52784825214_52a5c2264c_o.png')
https://live.staticflickr.com/65535/52784586136_58db1ca598_k.jpg ('https://live.staticflickr.com/65535/52784586136_ca97aef2a8_o.png')
https://live.staticflickr.com/65535/52784586496_fdc4026f27_k.jpg ('https://live.staticflickr.com/65535/52784586496_8c8be838ac_o.png')
https://live.staticflickr.com/65535/52785039603_c4ec75fe59_k.jpg ('https://live.staticflickr.com/65535/52785039603_47a60cde31_o.png')
https://live.staticflickr.com/65535/52784824854_95038fbb1a_k.jpg ('https://live.staticflickr.com/65535/52784824854_77a9a281fa_o.png')
https://live.staticflickr.com/65535/52785042918_98e26d3f99_k.jpg ('https://live.staticflickr.com/65535/52785042918_e252a4d455_o.png')
https://live.staticflickr.com/65535/52784035237_aca06ff148_k.jpg ('https://live.staticflickr.com/65535/52784035237_37190babc4_o.png')

Belli gli screen e anche qui si vede che parliamo cmq di un gioco datato. Occhio cmq perchè hai il contrasto un po' troppo elevato quando hai fatto gli screen. Il nero si mangia tutto.
A livello artistico è ottimo, così come poi tutto il comparto tecnico.
La lista di titoli tecbicamente superiori ne l'ho fatta poco sopra comuqnue.
Da Metro a CP, Da Control a Miles Morales, da God of war a Days gone. Horizon, Forza 5, Plague tale, Marvel’s Guardians of the Galaxy, rdr2, questi i primi che mi vengono in mente. Poi ci sono i vari giochi come Ghostwire che se sono cdarenti lato texture e mole poligonale hanno un ottimo RT che li fa recuperare. Anche un Daying light 2 risulta nel complesso superiore a tlou su pc per esempio. Un Legion/Far cry 6/ Tomb Raider/Death stranding. Flight Simulator, anche se gioca in una categoria a parte. Pure un Bright Memory: Infinite Ha alcuni aspetti superiori a tlou. E vorrei sottolineare il fatto che quasi tutti i titoli da me citati sono pure più leggeri sull'hardaware, nonostante le soluzioni più "pesanti" di tlou.

sertopica
01-04-2023, 08:55
Caro cutter ma come te lo dobbiamo dire di non postare foto col cellulare enormi e riquotare interi sets di immagini? Rende il thread illeggibile... E non e' la prima volta che uno te lo fa notare. Siamo in un forum di tecnologia cribbio non sul forum taglia e cuci di zia rosalinda...

davide155
01-04-2023, 08:56
Esatto è lì. Ma occhio che hai qualche impostazione non al massimo evidentemente. Perché in 4k in quel punto non puoi fare 97 fps e 130 in dlss quality. Tutti i video che ho visto in rete in quel punto fanno 4-5 fps più di me con 13900k. Tu ne fai 10 e passa e non è possibileAncora vi basate sui video su YouTube?
C'è un forum pieno di bench e dati che confermano differenze prestazionali tra queste cpu anche in 4k, soprattutto se la gpu è una 4090.Se hai meno VRAM si appoggia di più sulla RAM, un classico.
Comunque, finché cerca di sfruttare quella che c'è fa solo bene, bisogna vedere come reagirebbe con 16GB nello stesso contesto.
Finita la compilazione è meglio riavviare il gioco, potrebbero rimanere qualcosa di troppo in RAM.Esattamente Bello e' bello, soprattutto grazie alla direzione artistica, ma si vede che e' il remaster di un titolo datato, anche se hanno rifatto gran parte degli assets, illuminazione, textures & co.

Obiettivamente ci sono titoli tecnicamente superiori.Da cosa lo vedi che è un gioco vecchio?
Perché per me si sta dando i numeri qua dentro. Se questo è un gioco vecchio e fatto male allora stamm appost.
Ho visto delle cagate di gioco essere osannate e portate alte come capolavori, che una delle poche volte che esce un gioco fatto come si deve lo si prende a ceffoni.I dati a schermo è sempre Afterburner? Come si configura in quel modo?Devi configurarlo manualmente. Sul tubo è pieno di video dove lo spiegano
https://youtu.be/cDsMNgKYhyY

sertopica
01-04-2023, 09:09
Da cosa lo vedi che è un gioco vecchio?
Perché per me si sta dando i numeri qua dentro. Se questo è un gioco vecchio e fatto male allora stamm appost.
Ho visto delle cagate di gioco essere osannate e portate alte come capolavori, che una delle poche volte che esce un gioco fatto come si deve lo si prende a ceffoni.

Vabbe' ma non la prendere sul personale, e' la mia opinione e resta tale. :D

Per me e' la complessita' poligonale ad essere carente, nello specifico sulla distanza, l'illuminazione che mi sembra molto statica, lo shading sui materiali, il fatto che si veda ci si muova in ambienti molto piccoli dove la maggior parte degli elementi a schermo fanno da contorno e stonano con il resto... I modelli dei personaggi sono ottimi come da tradizione ND, cosi' come le animazioni.

Non sto dicendo che e' una cagata tout court, ma neanche che e' un capolavoro di realizzazione tecnica.

Magistercris
01-04-2023, 09:10
Sicuramente con questo gioco la cpu è molto importante.
4k con dlss quality e tutto, ma tutto maxato con cap a 120, meno di 110 115 fps non mi va con il 13700.
80% mi sta fisso a 120 a palla.
Per ora sono arrivato a 40 minuti di gioco, quindi più avanti può essere diverso.
Leggero Undervolt a 1820 sulla 4090

Cutter90
01-04-2023, 09:13
Caro cutter ma come te lo dobbiamo dire di non postare foto col cellulare enormi e riquotare interi sets di immagini? Rende il thread illeggibile... E non e' la prima volta che uno te lo fa notare. Siamo in un forum di tecnologia cribbio non sul forum taglia e cuci di zia rosalinda...

Guarda che tutte le foto postate sono grandi come le mie.....:mbe:

Cutter90
01-04-2023, 09:14
Ancora vi basate sui video su YouTube?
C'è un forum pieno di bench e dati che confermano differenze prestazionali tra queste cpu anche in 4k, soprattutto se la gpu è una 4090.Esattamente Da cosa lo vedi che è un gioco vecchio?
Perché per me si sta dando i numeri qua dentro. Se questo è un gioco vecchio e fatto male allora stamm appost.
Ho visto delle cagate di gioco essere osannate e portate alte come capolavori, che una delle poche volte che esce un gioco fatto come si deve lo si prende a ceffoni.Devi configurarlo manualmente. Sul tubo è pieno di video dove lo spiegano
https://youtu.be/cDsMNgKYhyY

Quando tutti i video di youtube confermano le mie performance e solo le tue no direi di si, mi baso su quelli alla grande :D

h.rorschach
01-04-2023, 09:14
Vedo un sacco di "uvavolpaggio" in questa discussione

davide155
01-04-2023, 09:15
Vabbe' ma non la prendere sul personale, e' la mia opinione e resta tale. :D

Per me e' la complessita' poligonale ad essere carente, nello specifico sulla distanza, l'illuminazione che mi sembra molto statica, lo shading sui materiali, il fatto che si veda ci si muova in ambienti molto piccoli dove la maggior parte degli elementi a schermo fanno da contorno e stonano con il resto... I modelli dei personaggi sono ottimi come da tradizione ND, cosi' come le animazioni.

Non sto dicendo che e' una cagata tout court, ma neanche che e' un capolavoro di realizzazione tecnica.Ovviamente si fa per parlare e confrontarci. Nessuno deve prenderla sul personale ci mancherebbe.
Dico solo che per me dovremmo esser un po' più felici quando escono titoli come questo perché a parte qualche bug di gioventù (ormai prassi purtroppo) il gioco gira a meraviglia anche su sistemi non di ultima generazione.

sertopica
01-04-2023, 09:15
Guarda che tutte le foto postate sono grandi come le mie.....:mbe:

Si ma visto che il forum e' vecchio e non fa resize di immagini neanche dei quote non c'e' bisogno di riquotare tutto... ;)
Ovviamente si fa per parlare e confrontarci. Nessuno deve prenderla sul personale ci mancherebbe.
Dico solo che per me dovremmo esser un po' più felici quando escono titoli come questo perché a parte qualche bug di gioventù (ormai prassi purtroppo) il gioco gira a meraviglia anche su sistemi non di ultima generazione.
E' bello senz'altro avere queste ex esclusive PS su PC, allo stesso tempo mi sembra che molti abbiano una specie di legame sentimentale con TLOU, che rimane quasi intoccabile. :D

Preferirei tuttavia avere titoli nuovi invece di remaster di remaster di remaster, e soprattutto visto che l'HW lo permette, vorrei anche includessero features piu' avanzate.

davide155
01-04-2023, 09:25
Quando tutti i video di youtube confermano le mie performance e solo le tue no direi di si, mi baso su quelli alla grande :DDipende dal gioco ovviamente. In alcuni dove si appoggiano mediamente poco la differenza è molto risicata. In altri giochi dove sfruttano a pieno la differenza di ipc allora salta fuori anche in 4k.
Bada bene parlo di 4090 che è l'unica gpu che mette in ginocchio anche i sistemi ryzen e alder/raptor di ultima generazione.
Infatti c'è un perché se ad ogni release di cpu nuove i risultati con la 4090 sono sempre migliorati anche in 4k da 6 mesi a questa parte.

Salfox
01-04-2023, 09:25
Ovviamente si fa per parlare e confrontarci. Nessuno deve prenderla sul personale ci mancherebbe.
Dico solo che per me dovremmo esser un po' più felici quando escono titoli come questo perché a parte qualche bug di gioventù (ormai prassi purtroppo) il gioco gira a meraviglia anche su sistemi non di ultima generazione.

Condivido in pieno caro Davide tranne il fatto che giri bene su configurazioni vecchie, secondo me se hai pochi core e poca memoria (video e centrale) è meglio rinunciare a giocarci.

Vedremo quando usciranno i giochi Sony di nuova generazione (quelli usciti solo per PS5) a cominciare dal nuovo Horizon che dovrebbe essere vicino all'uscita visto il tempo trascorso dall'uscita su PS5.

davide155
01-04-2023, 09:29
Si ma visto che il forum e' vecchio e non fa resize di immagini neanche dei quote non c'e' bisogno di riquotare tutto... ;)

E' bello senz'altro avere queste ex esclusive PS su PC, allo stesso tempo mi sembra che molti abbiano una specie di legame sentimentale con TLOU, che rimane quasi intoccabile. :D

Preferirei tuttavia avere titoli nuovi invece di remaster di remaster di remaster, e soprattutto visto che l'HW lo permette, vorrei anche includessero features piu' avanzate.Quello siamo d'accordo.
Ma come ben sai, implementare certe features e compilare determinati giochi necessitano di montagne di soldi e tempo. E di esempi ne siamo pieni.
E poi alla fine il risultato è sempre stato sotto le aspettative.
Uno dei pochi giochi che mi ha meravigliato ultimamente è stato atomic heart, il quale l'ho divorato e mi è pure piaciuto un sacco, nonostante anche li avesse dei cali grafici, nel complesso il risultato finale è stato di altissimo livello grazie ad una direzione artistica di assoluto rispetto.

davide155
01-04-2023, 09:31
Condivido in pieno caro Davide tranne il fatto che giri bene su configurazioni vecchie, secondo me se hai pochi core e poca memoria (video e centrale) è meglio rinunciare a giocarci.

Vedremo quando usciranno i giochi Sony di nuova generazione (quelli usciti solo per PS5) a cominciare dal nuovo Horizon che dovrebbe essere vicino all'uscita.Il nuovo horizon si parla di fine 2024.
Mikael è un esempio lampante, dove col suo pc riesce comunque a muoverlo sempre sopra i 60fps. Ed ha un ryzen normalissimo ed una 3080 cappata da 10gb di vram.

eXeS
01-04-2023, 09:31
1440p ultra + DLSS Quality, 17GB occupati già nel prologo:

...https://i.imgur.com/zCbVHRt.png
Anche sulla ram di sistema valgono le stesse considerazioni che da anni si fanno sulla ram video, se l'OS e/o il gioco e/o i programmi e/o i driver non deallocano, quella memoria non è disponibile in quanto allocata, ma memoria allocata è sempre >= memoria utilizzata.

Cutter90
01-04-2023, 09:47
Dipende dal gioco ovviamente. In alcuni dove si appoggiano mediamente poco la differenza è molto risicata. In altri giochi dove sfruttano a pieno la differenza di ipc allora salta fuori anche in 4k.
Bada bene parlo di 4090 che è l'unica gpu che mette in ginocchio anche i sistemi ryzen e alder/raptor di ultima generazione.
Infatti c'è un perché se ad ogni release di cpu nuove i risultati con la 4090 sono sempre migliorati anche in 4k da 6 mesi a questa parte.

Capisco e conosco molto bene questo discorso "generale". Ma ad ogni modo non mi era mai successo con nessun titolo di essere limitato con il mio 11, se non per quei pochissimi fps (dai 2 ai 5) in 4k sotto i 120, con la cpu sul 60-70% massimo ad esempio. . La lamentela nasce dal fatto che in tlous c'è proprio il muro sulla mia cpu. E questo non trova riscontro nella sua grafica/fisica e/o RT. Da lì la constatazione che il gioco abbia problemi evidenti di risorse.

StylezZz`
01-04-2023, 10:02
Se hai meno VRAM si appoggia di più sulla RAM, un classico.
Comunque, finché cerca di sfruttare quella che c'è fa solo bene, bisogna vedere come reagirebbe con 16GB nello stesso contesto.
Finita la compilazione è meglio riavviare il gioco, potrebbero rimanere qualcosa di troppo in RAM.

L'ho pensato anche io, però su altri giochi e in particolare quelli più recenti come RE4 Remake dove maxando tutto si mangia tantissima VRAM (più di TLOU), l'occupazione della ram non mi supera i 10GB. Nel caso di TLOU, si verifica anche su sistemi con un quantitavo di VRAM superiore a 8GB (notare gli screen postati da amon.akira qualche pagina indietro, dove ha quasi 17GB occupati).

Il gioco comunque era stato chiuso dopo la compilazione, quindi escludo ''rimanenze''.

DJurassic
01-04-2023, 11:41
Bello e' bello, soprattutto grazie alla direzione artistica, ma si vede che e' il remaster di un titolo datato, anche se hanno rifatto gran parte degli assets, illuminazione, textures & co.

Obiettivamente ci sono titoli tecnicamente superiori.

È un remake non una remastered. Credo tu sappia la differenza.

Belli gli screen e anche qui si vede che parliamo cmq di un gioco datato. Occhio cmq perchè hai il contrasto un po' troppo elevato quando hai fatto gli screen. Il nero si mangia tutto.
A livello artistico è ottimo, così come poi tutto il comparto tecnico.
La lista di titoli tecbicamente superiori ne l'ho fatta poco sopra comuqnue.
Da Metro a CP, Da Control a Miles Morales, da God of war a Days gone. Horizon, Forza 5, Plague tale, Marvel’s Guardians of the Galaxy, rdr2, questi i primi che mi vengono in mente. Poi ci sono i vari giochi come Ghostwire che se sono cdarenti lato texture e mole poligonale hanno un ottimo RT che li fa recuperare. Anche un Daying light 2 risulta nel complesso superiore a tlou su pc per esempio. Un Legion/Far cry 6/ Tomb Raider/Death stranding. Flight Simulator, anche se gioca in una categoria a parte. Pure un Bright Memory: Infinite Ha alcuni aspetti superiori a tlou. E vorrei sottolineare il fatto che quasi tutti i titoli da me citati sono pure più leggeri sull'hardaware, nonostante le soluzioni più "pesanti" di tlou.

Sono JXR esportati in png perché gioco in HDR. Io li vedo bene sul mio ma forse dipende appunto da quello. Mi scoccia disattivare l’HDR per fare gli ss ma comunque era solo per far capire di cosa parliamo. Per me siete completamente fuori strada e anzi vi dirò di più.

Lascio perdere questo argomento perché non ho voglia di sprecare il mio tempo per dimostrare qualcosa che io già so. Tornerò a scrivere quando si affronteranno altre discussioni. TLOU non ha certo bisogno di essere difeso da me, anche perché non era nemmeno quello l’intento.

Quando leggo che un Bright Memory è superiore vuol dire che è ora di staccare. :asd:

mikael84
01-04-2023, 11:49
Il nuovo horizon si parla di fine 2024.
Mikael è un esempio lampante, dove col suo pc riesce comunque a muoverlo sempre sopra i 60fps. Ed ha un ryzen normalissimo ed una 3080 cappata da 10gb di vram.

Confermo, viaggia davvero in maniera esemplare, mai una minima incertezza. Spesso CPU limit questo si.:)
La ram è sempre satura, ma non impatta. Ovviamente per precisazione, qua giocano quasi tutti in 4k, io sto a 1440p e DLSS.
4090 in mesto gioco = 3090 in 1440p, quindi alla fine compenso in parte, soprattutto se la ram non da problemi.:)

Anche sulla ram di sistema valgono le stesse considerazioni che da anni si fanno sulla ram video, se l'OS e/o il gioco e/o i programmi e/o i driver non deallocano, quella memoria non è disponibile in quanto allocata, ma memoria allocata è sempre >= memoria utilizzata.

Provato con 16gb. Va a 15 inizialmente, poi scende a 12-13gb. Senza mai un'incertezza. L'esperienza non cambia. Al contrario hogwarts legacy.:)

Eddie666
01-04-2023, 11:58
Capisco e conosco molto bene questo discorso "generale". Ma ad ogni modo non mi era mai successo con nessun titolo di essere limitato con il mio 11, se non per quei pochissimi fps (dai 2 ai 5) in 4k sotto i 120, con la cpu sul 60-70% massimo ad esempio. . La lamentela nasce dal fatto che in tlous c'è proprio il muro sulla mia cpu. E questo non trova riscontro nella sua grafica/fisica e/o RT. Da lì la constatazione che il gioco abbia problemi evidenti di risorse.

scusa, forse mi sono perso questo passaggio; ma in che modo la tua CPU limita la 4090? vedi che la % di utilizzo non raggiunge il 100%?

davide155
01-04-2023, 12:06
scusa, forse mi sono perso questo passaggio; ma in che modo la tua CPU limita la 4090? vedi che la % di utilizzo non raggiunge il 100%?Ancora? Lo avevamo già affrontato sto discorso.
Non avere la cpu al 100% non vuol dire che non sei cpu limited.
Se il motore grafico sfrutta uno, due o quattro core e basta ma l'ipc del tuo processore è inferiore ad un altro avrai una limitazione della tua cpu per tale gpu rispetto ad una cpu più prestante.
E la 4090 ha messo l'accento su questo fatto perché ha ampliato la forbice di differenza come si è reso conto cutter pochi post più su dove un 13600k gli da diversi fps di differenza.