View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
TigerTank
12-11-2021, 13:24
be l undervolt serve anche ad ottimizzare le performance con un clock piu stabile, io l ho regolata in modo da non avere quasi mai tagli da pl, ma sfruttando tutti i watt a disposizione visto che le temperature non sono un problema neanche d estate con 30tamb ho visto max 70gradi dopo ore.
Certo la tua di picco ha fatto 300w secondo me sei un po troppo conservativo con una ftw3 che cmq ha un bel dissi e considerando che è anche un ottimo bin 300w a 1920mhz...poi è vero che pochi mhz in piu non smuovono le acque e sicuramente avrai le ventole soft.
No quella era solo una prova iniziale per quantificare i comportamenti della scheda :)
La tengo a boost default(1995MHz) a 0,95V con eventuale profilo di scorta da 1,00V in caso situazioni più pesanti (RT in primis).
Comunque sì, poi ovviamente dipende anche dai modelli di schede, la TUF sicuramente si è rivelata tra le migliori.
Attualmente Tiger, se vuoi una scheda, la trovi subito, ovvero la 3080ti a 1800/2000 euro.
Oppure addirittura su Amazon, trovi a 1500 le 6900xt di AMD.
Eh sì ho visto...se strapaghi la disponibilità la trovi :D
Anche se ti girano le scatole perchè a parte l'anno già trascorso, con quei prezzi che già ai tempi sembravano esagerati, ti portavi a casa una 3090.
Scusate se continuo a stressare con sto power limit, ma e' possibile che con un undervolt a 0.85 mi raggiunga lo stesso il power limit? Oppure ho sbagliato qualcosa nel fare undervolt?
fraussantin
12-11-2021, 13:56
Scusate se continuo a stressare con sto power limit, ma e' possibile che con un undervolt a 0.85 mi raggiunga lo stesso il power limit? Oppure ho sbagliato qualcosa nel fare undervolt?Dipende da che applicativo usi . Con i giochi è molto difficile ma quello tosto capita sempre.
( Ma quanto è il tuo pl?)
PS almeno in 2k . In 4k non posso provare , ma so che i consumi salgono .
Dipende da che applicativo usi . Con i giochi è molto difficile ma quello tosto capita sempre.
( Ma quanto è il tuo pl?)
PS almeno in 2k . In 4k non posso provare , ma so che i consumi salgono .
Purtroppo ho la scheda sfigata con il pl bloccato a 100%.
Alekos Panagulis
12-11-2021, 15:16
ciao a tutti ,spero mi possiate aiutare, devo scaricare gears 4 dal microsoft store, ma quando gli imposto ssd su cui scaricarlo, in contemporanea il disco c di windows si riempe anche lui, come se lo stesse scaricando su entrambi gli,ssd,x paura non ho mai finito istallazione del gioco,e una volta cancellato il gioco dal disco E devo svotare anche il disco C la stessa cosa avviene anche sul mio pc muletto, qualcuno mi spiega perche avviene cio:confused: :confused: ,ps. mai successo con gli altri store. grazie:)Ciao, sei veramente ot....ma se vuoi risolvere cerca su Google "how to change microsoft store download location" e trovi la risposta.
Inviato dal mio IN2023 utilizzando Tapatalk
Purtroppo ho la scheda sfigata con il pl bloccato a 100%.Che scheda hai? Per capire se hai sbagliato qualcosa con l'undervolt, dovresti monitorare se durante il carico (per esempio mentre giochi) la tensione rimane costante rispetto quanto hai impostato. Per esempio, se imposti 0,85, devi rimanere costantemente a 0,85, mentre giochi. Se superi quel valore hai sbagliato nell'undervolt.
fraussantin
12-11-2021, 16:02
Purtroppo ho la scheda sfigata con il pl bloccato a 100%.Io 320 w non ci arrivo quasi mai con 900mV ma appunto in 1440p
Thunder-74
12-11-2021, 16:12
Scusate se continuo a stressare con sto power limit, ma e' possibile che con un undervolt a 0.85 mi raggiunga lo stesso il power limit? Oppure ho sbagliato qualcosa nel fare undervolt?
il consumo è in funzione di tre aspetti, voltaggio, freq. e soprattutto scena da calcolare. Se apri un titolo come Metro attivando il RT, il consumo è bello alto rispetto ad un titolo leggero con stessa freq. e voltaggio.
Domanda da niubbo...
mi piacerebbe capire quanti fps fa in tempo reale mentre si gioca, ho sempre avuto fraps ma su molti giochi non va e a volte mi fa errori.
Ci sono altri sistemi semplice per ottenere questa informazione?
Fabio
TigerTank
12-11-2021, 16:48
Che scheda hai? Per capire se hai sbagliato qualcosa con l'undervolt, dovresti monitorare se durante il carico (per esempio mentre giochi) la tensione rimane costante rispetto quanto hai impostato. Per esempio, se imposti 0,85, devi rimanere costantemente a 0,85, mentre giochi. Se superi quel valore hai sbagliato nell'undervolt.
Ha una 3090 con PL cappato a 350W...che in effetti sono un pò pochini per una 3090.
Domanda da niubbo...
mi piacerebbe capire quanti fps fa in tempo reale mentre si gioca, ho sempre avuto fraps ma su molti giochi non va e a volte mi fa errori.
Ci sono altri sistemi semplice per ottenere questa informazione?
Fabio
Prova MSI afterburner, lo usiamo in molti per overclock, undervolt, profili, gestione custom delle ventole ed OSD :)
Una volta che lo avrai studiato per bene e fatto rodaggio, ti piacerà.
Scusate se continuo a stressare con sto power limit, ma e' possibile che con un undervolt a 0.85 mi raggiunga lo stesso il power limit? Oppure ho sbagliato qualcosa nel fare undervolt?
Postaci uno screen della curva che hai settato. Dopo gli 850mV dovresti avere una linea semiretta in corrispondenza della frequenza di riferimento che hai scelto per quel voltaggio limite.
Ciao, sei veramente ot....ma se vuoi risolvere cerca su Google "how to change microsoft store download location" e trovi la risposta.
Inviato dal mio IN2023 utilizzando Tapatalkgrazie x la risposta
bha oggi la 3080 con undervolt a 0.9 e freq a 1900 piu 150 su gddr6x é arrivata a 340w e temperatura di 67 gradi
TigerTank
12-11-2021, 18:13
Se può interessare questo (https://www.youtube.com/watch?v=vdIIA57treo) tizio ha testato diversi pads su una 3090FE.
frafelix
12-11-2021, 19:06
Domanda da niubbo...
mi piacerebbe capire quanti fps fa in tempo reale mentre si gioca, ho sempre avuto fraps ma su molti giochi non va e a volte mi fa errori.
Ci sono altri sistemi semplice per ottenere questa informazione?
Fabio
Con win10 c’è anche la gamebar di default di windows, basta che controlli dallo store che sia aggiornata. Fraps in tutti i giochi con le nuove directx non funziona…
Se può interessare questo (https://www.youtube.com/watch?v=vdIIA57treo) tizio ha testato diversi pads su una 3090FE.
Recensione però un pò strana, io ho i thermalright che nella sua recensione vanno come quelli stock, quando in realtà si guadagnano 20 gradi…
https://www.reddit.com/r/nvidia/comments/mmzri2/3090_fe_thermal_pad_mod_cutting_template/
TigerTank
12-11-2021, 21:24
Recensione però un pò strana, io ho i thermalright che nella sua recensione vanno come quelli stock, quando in realtà si guadagnano 20 gradi…
https://www.reddit.com/r/nvidia/comments/mmzri2/3090_fe_thermal_pad_mod_cutting_template/
In effetti leggi il primo commento sotto al video :)
Anche a me sembrava un pò strano.
qualcuno qui ha per caso una 3080ti FE in un case O11 mini / 5000D?
vorrei capire come si comportano le temp perché mi stanno venendo un po' di dubbi
Postaci uno screen della curva che hai settato. Dopo gli 850mV dovresti avere una linea semiretta in corrispondenza della frequenza di riferimento che hai scelto per quel voltaggio limite.
Eccolo:
https://imgur.com/V3rp6aw
Ora sto usando questa curva, ma non so se l'ho settata giusta.
Eccolo:
https://imgur.com/V3rp6aw
Ora sto usando questa curva, ma non so se l'ho settata giusta.
Allora, la curva è settata in maniera corretta. Da quello che vedo, sicuramente non è settata a 0.85, ma qualcosa in più. Ma non credo sia quella la discriminante.
Però è difficile capire quanto stai consumando e quando vieni limitato dal PL. Per quanto tu abbia una 3090, con un PL a 350W, se riesci a tenere 0.85v e stare a 1900 Mhz o oltre, sicuramente non stai caricando la scheda a tal punto da consumare 350W. In parole povere, con quella curva, non dovresti arrivare a 350W. Non ti ci dovresti neanche avvicinare.
Esempio personale: io ho una 3080 e giocando a CP2077 (che dovrebbe essere il gioco che mi fa consumare di più, a memoria), a 0.85 non riesco a tenere i 1900Mhz, il gioco va in crash. Sono mediamente a 1860-1875 Mhz e non arrivo al PL (sempre 350W). La 3090 dovrebbe tenere frequenze più basse.
Adesso gioco a Guardiani della Galassia, e con la stessa curva faccio attorno ai 280W.
Secondo me dovresti mettere la curva che usi, far andare il gioco o il software che usi e monitorare il consumo della gpu, la frequenza che raggiungi in quel frangente e la tensione che viene applicata. In maniera puntuale.
Perchè ripeto, dubito che sfori il PL con quella curva. E se la scena fosse tanto intensiva da farti arrivare al PL, dubito che riusciresti a tenerla con quella frequenza e voltaggio.
Allora, la curva è settata in maniera corretta. Da quello che vedo, sicuramente non è settata a 0.85, ma qualcosa in più. Ma non credo sia quella la discriminante.
Però è difficile capire quanto stai consumando e quando vieni limitato dal PL. Per quanto tu abbia una 3090, con un PL a 350W, se riesci a tenere 0.85v e stare a 1900 Mhz o oltre, sicuramente non stai caricando la scheda a tal punto da consumare 350W. In parole povere, con quella curva, non dovresti arrivare a 350W. Non ti ci dovresti neanche avvicinare.
Esempio personale: io ho una 3080 e giocando a CP2077 (che dovrebbe essere il gioco che mi fa consumare di più, a memoria), a 0.85 non riesco a tenere i 1900Mhz, il gioco va in crash. Sono mediamente a 1860-1875 Mhz e non arrivo al PL (sempre 350W). La 3090 dovrebbe tenere frequenze più basse.
Adesso gioco a Guardiani della Galassia, e con la stessa curva faccio attorno ai 280W.
Secondo me dovresti mettere la curva che usi, far andare il gioco o il software che usi e monitorare il consumo della gpu, la frequenza che raggiungi in quel frangente e la tensione che viene applicata. In maniera puntuale.
Perchè ripeto, dubito che sfori il PL con quella curva. E se la scena fosse tanto intensiva da farti arrivare al PL, dubito che riusciresti a tenerla con quella frequenza e voltaggio.
Io con una 3060ti e cyberpunk sto sui 180w
Con necromunda supero i 220w
CP non è il più esoso in termini di consumi
Allora, la curva è settata in maniera corretta. Da quello che vedo, sicuramente non è settata a 0.85, ma qualcosa in più. Ma non credo sia quella la discriminante.
Però è difficile capire quanto stai consumando e quando vieni limitato dal PL. Per quanto tu abbia una 3090, con un PL a 350W, se riesci a tenere 0.85v e stare a 1900 Mhz o oltre, sicuramente non stai caricando la scheda a tal punto da consumare 350W. In parole povere, con quella curva, non dovresti arrivare a 350W. Non ti ci dovresti neanche avvicinare.
Esempio personale: io ho una 3080 e giocando a CP2077 (che dovrebbe essere il gioco che mi fa consumare di più, a memoria), a 0.85 non riesco a tenere i 1900Mhz, il gioco va in crash. Sono mediamente a 1860-1875 Mhz e non arrivo al PL (sempre 350W). La 3090 dovrebbe tenere frequenze più basse.
Adesso gioco a Guardiani della Galassia, e con la stessa curva faccio attorno ai 280W.
Secondo me dovresti mettere la curva che usi, far andare il gioco o il software che usi e monitorare il consumo della gpu, la frequenza che raggiungi in quel frangente e la tensione che viene applicata. In maniera puntuale.
Perchè ripeto, dubito che sfori il PL con quella curva. E se la scena fosse tanto intensiva da farti arrivare al PL, dubito che riusciresti a tenerla con quella frequenza e voltaggio.
Ottimo, grazie mille per la risposta! Pero' come faccio a vedere i consumi esatti? Con gpu-z? Perche' con afterburner vedo solo il grafico power che ogni tanto arriva al 100%.
Edit: Si ho visto con gpu-z, effettivamente sono sempre vicino ad i 350w a 1905@0.856. Mi sa che piu' di così non posso fare senza cambiare il bios...
https://imgur.com/a/mvdyq3l
razor820
13-11-2021, 13:27
Ragazzi provato bf2042. assurdo che con una 3080ti si fanno in media 100fps.. Per non parlare di alcune mappe che si arriva anche a 70!!! :D
Parlo in 1440p e la gpu sta sul 95% minimo.
Poi il DLS è come se non ci fosse. Visto che attivo o disattivato il frame rate è identico
Ottimo, grazie mille per la risposta! Pero' come faccio a vedere i consumi esatti? Con gpu-z? Perche' con afterburner vedo solo il grafico power che ogni tanto arriva al 100%.
Edit: Si ho visto con gpu-z, effettivamente sono sempre vicino ad i 350w a 1905@0.856. Mi sa che piu' di così non posso fare senza cambiare il bios...
https://imgur.com/a/mvdyq3l
A questo punto abbasserei un po' la frequenza, tipo mettiti a 1890 per stare più comodo nel PL.
Io con una 3060ti e cyberpunk sto sui 180w
Con necromunda supero i 220w
CP non è il più esoso in termini di consumi
Ho parlato per me, infatti. Io Necromunda non lo ho, quindi non ho idea di quanto sia esoso.
Ho parlato per me, infatti. Io Necromunda non lo ho, quindi non ho idea di quanto sia esoso.
Era per suggerire un titolo che può essere usato come metro di paragone, anziché usare come comparazione cp che è sicuramente pesante, ma c'è molto di peggio in termini di consumi
fabryx73
13-11-2021, 17:25
Se provi a fare come ho scritto sopra vedrai che una volta dato l'ok la curva si setterà in automatico e dopo il punto frequenza-voltaggio di riferimento avrai una semiretta(cioè il cap del voltaggio) :)
come dici tu è giusto, ma il -90mhz iniziale serve a non avere punti piu alti in avanti rispetto a quello da te scelto.
esempio,se tu partissi da 0.900 e con +150mhz arrivassi a 1905mhz, dovresti assicurarti che davanti a te fino a 1.081v sia appiattita altrimenti poi in game ti userebbe quest ultima.
per esempio a me basta un -75iniziale e partendo da 925mV con +135mhz riesco ad appiattirla oltre il 1.081 (ultimo step utile)
mia curva (https://i.imgur.com/P9BPEKp.png)
ragazzi scusate se riuppo questa richiesta di qualche giorno fa....purtroppo in settimana col lavoro....quindi mi son messo oggi che ho tempo....
@amon.akira e @TigerTank mi avevate dato qualche consiglio per fare un po di undervolt visto che io chiedevo se era possibile alzare il powerlimit di una zotac 3080 trinity oc con flash firmware....
ho provato sia i vostri 2 consigli ,con molte modifiche per vedere se migliorava a cambiava qualcosa....sia alcune guide trovate su vari siti (tipo su wccftech su youtube "watch?v=sClh4270yg0" dove dice di abbassare di molto il coreclock ,tipo 280, e di alzare di molto a 950mv) ....
poi ho fatto bench con timespy e heaven e altro....
niente allora.... i risultati sono tutti abbastanza simili....cioè non perdo molti frame o altro....ma non guadagno niente su stabilità come gpuclock....non rimane più stabile,è circa come a default.....le temp idem (ma qui avevo già lavorato di pad termici e pasta termica buona cambiata) .
idem e qui la cosa mi lascia un po di amaro in bocca....il wattaggio della scheda .....rimane sempre alto.... come se non avessi fatto undervolt....qualsiasi undervolt faccio....è sempre poco sotto il limite e stop....
ma leggendo varie guide dicono che la cosa più facile e semplice che si ottiene è proprio un minor consumo energetico della scheda....
ora , non è una cosa importante per me , d'altronde vi avevo chiesto come alzare il powerlimit per non essere cappato come potenza....quindi....però se non son riuscito nemmeno in quello...
ho sbagliato qualcosa? grazie per i preziosi consigli ;)
amon.akira
13-11-2021, 19:13
ragazzi scusate se riuppo questa richiesta di qualche giorno fa....purtroppo in settimana col lavoro....quindi mi son messo oggi che ho tempo....
@amon.akira e @TigerTank mi avevate dato qualche consiglio per fare un po di undervolt visto che io chiedevo se era possibile alzare il powerlimit di una zotac 3080 trinity oc con flash firmware....
ho provato sia i vostri 2 consigli ,con molte modifiche per vedere se migliorava a cambiava qualcosa....sia alcune guide trovate su vari siti (tipo su wccftech su youtube "watch?v=sClh4270yg0" dove dice di abbassare di molto il coreclock ,tipo 280, e di alzare di molto a 950mv) ....
poi ho fatto bench con timespy e heaven e altro....
niente allora.... i risultati sono tutti abbastanza simili....cioè non perdo molti frame o altro....ma non guadagno niente su stabilità come gpuclock....non rimane più stabile,è circa come a default.....le temp idem (ma qui avevo già lavorato di pad termici e pasta termica buona cambiata) .
idem e qui la cosa mi lascia un po di amaro in bocca....il wattaggio della scheda .....rimane sempre alto.... come se non avessi fatto undervolt....qualsiasi undervolt faccio....è sempre poco sotto il limite e stop....
ma leggendo varie guide dicono che la cosa più facile e semplice che si ottiene è proprio un minor consumo energetico della scheda....
ora , non è una cosa importante per me , d'altronde vi avevo chiesto come alzare il powerlimit per non essere cappato come potenza....quindi....però se non son riuscito nemmeno in quello...
ho sbagliato qualcosa? grazie per i preziosi consigli ;)
guarda è molto semplice, imposta l osd tramite afterburner in cui vedi i mhz, i watt e i volt, lancia un timespy a default e vedrai che quando arriva al limite del pl 330w nel tuo caso i mhz scenderanno a 1800 o meno, rifai la stessa prova con l undervolt a 0.900 come ti abbiamo detto e vedrai che nello stesso punto magari ti fa sempre 330watt ma avrai i mhz piu alti 1900 per esempio.
il risultato è che con 330w hai la scheda con 100 o piu mhz.
se poi vuoi, metti il bios della amp holo (https://www.techpowerup.com/vgabios/231883/zotac-rtx3080-10240-210311)
fraussantin
13-11-2021, 19:37
guarda è molto semplice, imposta l osd tramite afterburner in cui vedi i mhz, i watt e i volt, lancia un timespy a default e vedrai che quando arriva al limite del pl 330w nel tuo caso i mhz scenderanno a 1800 o meno, rifai la stessa prova con l undervolt a 0.900 come ti abbiamo detto e vedrai che nello stesso punto magari ti fa sempre 330watt ma avrai i mhz piu alti 1900 per esempio.
il risultato è che con 330w hai la scheda con 100 o piu mhz.
se poi vuoi, metti il bios della amp holo (https://www.techpowerup.com/vgabios/231883/zotac-rtx3080-10240-210311)Afterburner ha anche l'opzione a schermo per vedere quando entra il pl , se si mette come grafico si vedono anche i piccoli momenti in cui entra
amon.akira
13-11-2021, 20:01
Afterburner ha anche l'opzione a schermo per vedere quando entra il pl , se si mette come grafico si vedono anche i piccoli momenti in cui entra
esatto
bastarebbe anche un semplice average clock nel resoconto timespy
https://www.3dmark.com/spy/23903547
Thunder-74
14-11-2021, 08:28
Ragazzi provato bf2042. assurdo che con una 3080ti si fanno in media 100fps.. Per non parlare di alcune mappe che si arriva anche a 70!!! :D
Parlo in 1440p e la gpu sta sul 95% minimo.
Poi il DLS è come se non ci fosse. Visto che attivo o disattivato il frame rate è identico
Stesse considerazioni che ho fatto io. Il DLSS fa cambiare le cose solo se impostato su ultra performance, ma veramente da non usare per un 2k .
Inoltre ho notato come l uso della gpu cala attivando anche il RT . Sicuro il titolo deve essere ottimizzato. Comunque è tanta roba che gira con 128 player , non va dimenticato
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
14-11-2021, 08:37
Volevo riscaricare rdr2 per provarlo con dlss , ma c'é una versione consigliata da usare\ moddare?
Stesse considerazioni che ho fatto io. Il DLSS fa cambiare le cose solo se impostato su ultra performance, ma veramente da non usare per un 2k .
Inoltre ho notato come l uso della gpu cala attivando anche il RT . Sicuro il titolo deve essere ottimizzato. Comunque è tanta roba che gira con 128 player , non va dimenticato
Inviato dal mio iPhone X utilizzando Tapatalk
Cioè il DLSS serve solo in 4K?
razor820
14-11-2021, 09:34
Volevo riscaricare rdr2 per provarlo con dlss , ma c'é una versione consigliata da usare\ moddare?
io l ho provato qualche settimana fa.
La qualità è leggermente superiore anche del Msa. Stentavo a crederci
fraussantin
14-11-2021, 09:36
io l ho provato qualche settimana fa.
La qualità è leggermente superiore anche del Msa. Stentavo a crederciOttimo allora
Thunder-74
14-11-2021, 09:47
Cioè il DLSS serve solo in 4K?
no, ho detto che l'impostazione "Ultra performance" non è da utilizzare sul 2k. In realtà nVidia lo consiglia per 8k, perchè il degrado dell'immagine è notevole.
Volevo riscaricare rdr2 per provarlo con dlss , ma c'é una versione consigliata da usare\ moddare?
Questo è Red dead redemption 2 tutto Ultra ( ma proprio tutto) in 4k dlss qualità con una 3080 TI FE
https://imgbb.com/TL8jHf6
https://ibb.co/dtJ1W3S
fabryx73
14-11-2021, 12:55
guarda è molto semplice, imposta l osd tramite afterburner in cui vedi i mhz, i watt e i volt, lancia un timespy a default e vedrai che quando arriva al limite del pl 330w nel tuo caso i mhz scenderanno a 1800 o meno, rifai la stessa prova con l undervolt a 0.900 come ti abbiamo detto e vedrai che nello stesso punto magari ti fa sempre 330watt ma avrai i mhz piu alti 1900 per esempio.
il risultato è che con 330w hai la scheda con 100 o piu mhz.
son tardo lo sò :D ....ma non avevo mai fatto undervolt...
mi spieghi una cosa stupida.....
mi spieghi la differenza tra tu che hai settato -90mhz sul core e poi hai settato la curva del voltaggio sui 0,950mv e tra le varie guide sul net dove invece dicono di andare a -200/250/300mhz e poi settare la curva voltaggio sui 0,950mv ? cioè alla fine è la stessa cosa oppure scendendo di molto rischio di abbassare di tanto le prestazioni? thanks
amon.akira
14-11-2021, 13:26
son tardo lo sò :D ....ma non avevo mai fatto undervolt...
mi spieghi una cosa stupida.....
mi spieghi la differenza tra tu che hai settato -90mhz sul core e poi hai settato la curva del voltaggio sui 0,950mv e tra le varie guide sul net dove invece dicono di andare a -200/250/300mhz e poi settare la curva voltaggio sui 0,950mv ? cioè alla fine è la stessa cosa oppure scendendo di molto rischio di abbassare di tanto le prestazioni? thanks
in realtà -75mhz :P, potresti anche non abbassarla, si rende necessario quando si scende sotto i 950mV perchè altrimenti capita che il punto che tu alzi sia sotto al punto 1.081v, se capita questo poi durante l uso la scheda ti prende sempre 1.081v finchè ha pl e quindi vanifichi il tuo undervolt.
io calando la curva di -75mhz e poi alzando il 0.925 di +135mhz arrivo a 1965mhz cosi riesco ad appiattire la curva fino al 1.081v cosi poi mi usa solo e sempre max 0.925
(THE REAL) Neo
14-11-2021, 14:14
son tardo lo sò :D ....ma non avevo mai fatto undervolt...
mi spieghi una cosa stupida.....
mi spieghi la differenza tra tu che hai settato -90mhz sul core e poi hai settato la curva del voltaggio sui 0,950mv e tra le varie guide sul net dove invece dicono di andare a -200/250/300mhz e poi settare la curva voltaggio sui 0,950mv ? cioè alla fine è la stessa cosa oppure scendendo di molto rischio di abbassare di tanto le prestazioni? thanksIo normalmente,per creare la curva,parto togliendo 100 MHz dal core, poiché si crea un gradino poco marcato.
Nelle guide si YouTube,dicono di togliere 300 MHz,ma é eccessivo poiché si crea un transiente di frequenza, tra idle e sotto carico,troppo marcato.
Io preferisco fargli fare una transizione piú soft,per non creare picchi di carico.
amon.akira
14-11-2021, 15:23
Io normalmente,per creare la curva,parto togliendo 100 MHz dal core, poiché si crea un gradino poco marcato.
Nelle guide si YouTube,dicono di togliere 300 MHz,ma é eccessivo poiché si crea un transiente di frequenza, tra idle e sotto carico,troppo marcato.
Io preferisco fargli fare una transizione piú soft,per non creare picchi di carico.
nulla gli vieta di crearla su misura,l importante è arrivare fino a 1.081, inoltre meglio procedere a step di 15mhz, 75-90-105-120-135-150 etc..
fabryx73
14-11-2021, 16:17
nulla gli vieta di crearla su misura,l importante è arrivare fino a 1.081, inoltre meglio procedere a step di 15mhz, 75-90-105-120-135-150 etc..
niente....son tardo....non ci arrivo :mc:
perchè a 1.081 ,scusami? ma non bisogna stare sotto per farla lavorare meglio?
ascolta facendo un po di prove (a caz*o ti direi ,visto che non ci arrivo proprio a comprendere il concetto....mi merito un 4 pieno :muro: .
non comprendo questo -nel core perchè altrimenti rischio di superare 1.081...non ci arrivo come concetto) , il miglior compromesso diciamo ,ottenuto è :
sceso core di 130mhz ,messo curva a 0,937 +166mv per arrivare a max 1995 di frequenza.
https://i.postimg.cc/nsLYF46n/Immagine.png (https://postimg.cc/nsLYF46n)
https://i.postimg.cc/WDfmhDvg/Immagine2.png (https://postimg.cc/WDfmhDvg)
dagli un occhio,scusami....
facendo i test con timespy mi ha dato il risultato migliore come "average frequency" più vicino a 1900 (precisamente 1890) piuttosto chhe a default ( 1820) ....
devo aggiungere però....che mi va sempre in powerlimit il grafico di rivaturner/afterburner durante i test ..... è son già a +5% come powerlimit come puoi vedere ( il max che mi da il bios della scheda 336w....).
profilo ventole settato a mano....abbastanza aggresivo visto che non mi interessa il rumore in se....
grazie grazie e rigrazie :D
amon.akira
14-11-2021, 18:07
.abbastanza aggresivo visto che non mi interessa il rumore in se....
grazie grazie e rigrazie :D
ok va benissimo come hai fatto, unica cosa che a 0.937 assorbe ancora tanto, quindi vai sempre di -120 o -135mhz iniziali e poi anzichè prendere come punto 0.937 prendi 0.900 e alzalo sempre a +165mhz e vedrai che già andrà meglio come clock medio, poi dovrai solo testare se effettivamente regge senza crashare i +165mhz
niente....son tardo....non ci arrivo :mc:
perchè a 1.081 ,scusami? ma non bisogna stare sotto per farla lavorare meglio?
ascolta facendo un po di prove (a caz*o ti direi ,visto che non ci arrivo proprio a comprendere il concetto....mi merito un 4 pieno :muro: .
non comprendo questo -nel core perchè altrimenti rischio di superare 1.081...non ci arrivo come concetto) , il miglior compromesso diciamo ,ottenuto è :
sceso core di 130mhz ,messo curva a 0,937 +166mv per arrivare a max 1995 di frequenza.
https://i.postimg.cc/nsLYF46n/Immagine.png (https://postimg.cc/nsLYF46n)
https://i.postimg.cc/WDfmhDvg/Immagine2.png (https://postimg.cc/WDfmhDvg)
dagli un occhio,scusami....
facendo i test con timespy mi ha dato il risultato migliore come "average frequency" più vicino a 1900 (precisamente 1890) piuttosto chhe a default ( 1820) ....
devo aggiungere però....che mi va sempre in powerlimit il grafico di rivaturner/afterburner durante i test ..... è son già a +5% come powerlimit come puoi vedere ( il max che mi da il bios della scheda 336w....).
profilo ventole settato a mano....abbastanza aggresivo visto che non mi interessa il rumore in se....
grazie grazie e rigrazie :DCon queste schede, a meno che tu non abbia accesso a BIOS con PL molto spinti, appena ti muovi da una tensione che sia diversa da 0.85-0.9 vai a sbattere contro il limitatore.
Come consiglio, mettiti massimo a 0.9v e modula la frequenza di conseguenza, in modo da essere stabile a quel voltaggio. Dovresti riuscire a stare dentro il Power limit.
Sarebbe ancora meglio scendere sotto 0.9, perché sicuramente ci saranno dei giochi che ti manderanno al limite anche così.
Scusate se mi inserisco, ma non sono sicuro di aver capito tutto, sulla 3070ti FE ho undervoltato a 0.875 @1950 mhz e come potenza durante TimeSpy è arrivata max a circa 200-210W (non sono al PC interessato adesso quindi vado a memoria). Da dove vedo il PL?
fabryx73
15-11-2021, 11:16
Da dove vedo il PL?
Gpu z... comunque se cerchi su internet il tuo modello esatto della scheda lo trovi senz'altro
Gpu z... comunque se cerchi su internet il tuo modello esatto della scheda lo trovi senz'altro
Ok grazie quando sono a casa guardo.
mikael84
15-11-2021, 11:27
Scusate se mi inserisco, ma non sono sicuro di aver capito tutto, sulla 3070ti FE ho undervoltato a 0.875 @1950 mhz e come potenza durante TimeSpy è arrivata max a circa 200-210W (non sono al PC interessato adesso quindi vado a memoria). Da dove vedo il PL?
La 3070ti FE ha un TDP da 290 x PL 320watt. Quindi sei abbondantemente sotto.
amon.akira
15-11-2021, 13:03
La 3070ti FE ha un TDP da 290 x PL 320watt. Quindi sei abbondantemente sotto.
infatti forse era con cap fps on
bios 3070ti fe (https://www.techpowerup.com/vgabios/234245/nvidia-rtx3070ti-8192-210425)
razor820
15-11-2021, 15:35
Qualcuno ha visto questo gioiellino, che tra l altro non costa tanto?
CORSAIR HYDRO X SERIES XD7 (https://www.corsair.com/it/it/Categorie/Prodotti/Custom-Cooling/Pompa-serbatoio/Hydro-X-Series-XD7-RGB-Pump-Reservoir-Combo/p/CX-9040005-WW)
ci liquiderei solo la gpu.
Qualcuno ha visto questo gioiellino, che tra l altro non costa tanto?
CORSAIR HYDRO X SERIES XD7 (https://www.corsair.com/it/it/Categorie/Prodotti/Custom-Cooling/Pompa-serbatoio/Hydro-X-Series-XD7-RGB-Pump-Reservoir-Combo/p/CX-9040005-WW)
ci liquiderei solo la gpu.
260 euro pompa + serbatoio non costa tanto?
certo che ormai il liquido custom è diventato roba per pochi
Black"SLI"jack
15-11-2021, 15:44
Qualcuno ha visto questo gioiellino, che tra l altro non costa tanto?
CORSAIR HYDRO X SERIES XD7 (https://www.corsair.com/it/it/Categorie/Prodotti/Custom-Cooling/Pompa-serbatoio/Hydro-X-Series-XD7-RGB-Pump-Reservoir-Combo/p/CX-9040005-WW)
ci liquiderei solo la gpu.
a quella combo pompa/vaschetta, ci devi abbinare radiatore, ventole, raccordi, tubi e soprattutto il wb compatibile per la tua gpu. preferisco assai di più le classiche combo pompa/vaschetta cilindrica. anche perché quella corsair è più vicina ad una distroplate che ad una combo. senza contare che va ad occupare proprio lo spazio di un rad da 360.
razor820
15-11-2021, 16:10
Scusate.. Ho appena visto che non ha ne radiatore ne ventole.. :D
Possiamo dire che è un prezzo folle!
Assurdo dal sito corsair sembrava avesse entrambi..
Scusate.. Ho appena visto che non ha ne radiatore ne ventole.. :D
Possiamo dire che è un prezzo folle!
Assurdo dal sito corsair sembrava avesse entrambi..
Eh ti sarebbe piaciuto eh?
Invece è una vaschetta leddata trasparente che assomiglia a un radiatore, con su montata una D5 alla modica cifra di 260 euro.
a quella combo pompa/vaschetta, ci devi abbinare radiatore, ventole, raccordi, tubi e soprattutto il wb compatibile per la tua gpu. preferisco assai di più le classiche combo pompa/vaschetta cilindrica. anche perché quella corsair è più vicina ad una distroplate che ad una combo. senza contare che va ad occupare proprio lo spazio di un rad da 360.
Ma che te frega se occupa una predisposizione da 360mm,tanto con 120mm raffreddi Cpu+Gpu :asd: :asd:
Black"SLI"jack
15-11-2021, 17:03
Ma che te frega se occupa una predisposizione da 360mm,tanto con 120mm raffreddi Cpu+Gpu :asd: :asd:
seh seh, una 3090 da 500w più un bel 12900k senza limiti, il tutto con un 120 slim (da 25mm e non da 30 sia chiaro), singola fan a 600rpm dietro un bel frontale in vetro temperato. :asd: :sofico:
fabryx73
15-11-2021, 17:10
ok va benissimo come hai fatto, unica cosa che a 0.937 assorbe ancora tanto, quindi vai sempre di -120 o -135mhz iniziali e poi anzichè prendere come punto 0.937 prendi 0.900 e alzalo sempre a +165mhz e vedrai che già andrà meglio come clock medio, poi dovrai solo testare se effettivamente regge senza crashare i +165mhz
Con queste schede, a meno che tu non abbia accesso a BIOS con PL molto spinti, appena ti muovi da una tensione che sia diversa da 0.85-0.9 vai a sbattere contro il limitatore.
Come consiglio, mettiti massimo a 0.9v e modula la frequenza di conseguenza, in modo da essere stabile a quel voltaggio. Dovresti riuscire a stare dentro il Power limit.
Sarebbe ancora meglio scendere sotto 0.9, perché sicuramente ci saranno dei giochi che ti manderanno al limite anche così.
grazie ad entrambi per i consigli,questo forum purtroppo non ha i "like" per ringraziare che anche se fanno brutto ,"spiegano" senza aprire un post apposta.
il miglior compromesso che sono arrivato a questo : -130mhz +200 sul 0.887mv , per arrivare a 1950 di frequenza.
i test con timespy mi han dato sempre "average fraquency 1947" , il powerlimit ho visto che entrava moltooo di meno ,ma saltuariamente entrava per qualche istante comunque.
https://i.postimg.cc/hXmQL0Q4/Immagine.png (https://postimg.cc/hXmQL0Q4)
cosa dite? anche perchè comunque se alzo meno il + sul voltaggio magari non entra il powerlimit ma come punteggi (e frame medi nei giochi) saranno minori,no?
@floyd2 domanda.....mettere il bios della amp holo (sempre a 2*8 pin) aiuterebbe o potrebbe essere pericoloso? ho visto i 2 pcb (trinity e holo) e differenze maggiori sono i 13-phase GPU VRM (trinity) contro i 16 di holo amp.
techpowerup.com/review/zotac-geforce-rtx-3080-amp-holo/3.html
techpowerup.com/review/zotac-geforce-rtx-3080-trinity/3.html
grazie di cuore ancora a tutti!
TigerTank
15-11-2021, 18:32
Ma che te frega se occupa una predisposizione da 360mm,tanto con 120mm raffreddi Cpu+Gpu :asd: :asd:
Ma più che altro il punto è: esistono AIO per 3080TI FE degni di tal nome?
Io ho visto un Bykski ma a quanto pare ha solo un biventola striminzito e i possessori non è che ne decantino le prestazioni :D
Ma più che altro il punto è: esistono AIO per 3080TI FE degni di tal nome?
Io ho visto un Bykski ma a quanto pare ha solo un biventola striminzito e i possessori non è che ne decantino le prestazioni :D
Io di AIO non è che sia molto informato,ho comprato un Corsair H80i circa 12 anni fa,il mio aggiornamento si ferma li :D
Ora che me lo fai notare,sono andato a vederlo e costa 299$...mah con quella cifra si comincia a ragionare per fare un mini loop per la Vga,invece di quella schifezza
TigerTank
15-11-2021, 21:21
Io di AIO non è che sia molto informato,ho comprato un Corsair H80i circa 12 anni fa,il mio aggiornamento si ferma li :D
Ora che me lo fai notare,sono andato a vederlo e costa 299$...mah con quella cifra si comincia a ragionare per fare un mini loop per la Vga,invece di quella schifezza
Eh sì, concordo.
Purtroppo le nvidia di riferimento non sono più "reference"...le reference per cui ci sono delle soluzioni sono quelle AIB :)
mikael84
16-11-2021, 00:27
cosa dite? anche perchè comunque se alzo meno il + sul voltaggio magari non entra il powerlimit ma come punteggi (e frame medi nei giochi) saranno minori,no?
@floyd2 domanda.....mettere il bios della amp holo (sempre a 2*8 pin) aiuterebbe o potrebbe essere pericoloso? ho visto i 2 pcb (trinity e holo) e differenze maggiori sono i 13-phase GPU VRM (trinity) contro i 16 di holo amp.
techpowerup.com/review/zotac-geforce-rtx-3080-amp-holo/3.html
techpowerup.com/review/zotac-geforce-rtx-3080-trinity/3.html
grazie di cuore ancora a tutti!
Sono 19 una e 16 l'altra, non hai contato le ram e tutto il contesto MVDDC.
Il Vrm più che altro è scarsetto, in alcuni brand si è distanti per sovraccaricare più alcune fasi che altri, ma per il resto cambia nulla.
A 20A, sei davvero al minimo di corrente, e con 20A sei a 280w sulla tua + pic express (2 fasi dedicate da scorporare). ;)
Cutter90
16-11-2021, 06:45
Giusto per sfatare "l'oc con le nuove schede non serve a nulla". La verità è che varia da gioco a gioco.... ed a scheda a scheda
Stock
https://i.imgur.com/FIM4PYM.jpg
OC
https://i.imgur.com/5NNpV51.jpg
fraussantin
16-11-2021, 07:25
Giusto per sfatare "l'oc con le nuove schede non serve a nulla". La verità è che varia da gioco a gioco.... ed a scheda a scheda
Stock
https://i.imgur.com/FIM4PYM.jpg
OC
https://i.imgur.com/5NNpV51.jpg5 FPS per 180 megahertz. È in media a quello che si diceva
Quel 1920 lo puoi tenere a 900mV tranquillo e consumare 100w in meno. Sempre oc è , ma dato per consumare meno.
Cutter90
16-11-2021, 07:34
5 FPS per 180 megahertz. È in media a quello che si diceva
Quel 1920 lo puoi tenere a 900mV tranquillo e consumare 100w in meno. Sempre oc è , ma dato per consumare meno.
5 fps non sono mica pochi. In fh5 i watt non vengono assorbiti correttamente. Dovrei stare sui 480 in base al mio pl, invece arriva al massimo a 400. Quindi qui, il "consumare 100 watt in meno" non so se funziona. Del resto tutta la vita 5 fps che 100 watt in meno....
fraussantin
16-11-2021, 07:38
5 fps non sono mica pochi. In fh5 i watt non vengono assorbiti correttamente. Dovrei stare sui 480 in base al mio pl, invece arriva al massimo a 400. Quindi qui, il "consumare 100 watt in meno" non so se funziona. Del resto tutta la vita 5 fps che 100 watt in meno....Prova a mettere 900 e 1920 e vedi se sono 100 in meno .
Sul meglio o peggio sono scelte personali che nessuno discute.
E nessuno ha mai detto il contrario. Anzi abbiamo sempre detto che tenere a stock queste schede non ha senso perché hanno voltaggi assurdi per le frequenze che offrono poi che quello scarto uno lo voglia usare per undervolt o per oc ( che poi sono la stessa cosa )è una scelta sua.
5 fps non sono mica pochi. In fh5 i watt non vengono assorbiti correttamente. Dovrei stare sui 480 in base al mio pl, invece arriva al massimo a 400. Quindi qui, il "consumare 100 watt in meno" non so se funziona. Del resto tutta la vita 5 fps che 100 watt in meno....
Normalmente a 2100 quanti W usa?
razor820
16-11-2021, 09:23
5 FPS per 180 megahertz. È in media a quello che si diceva
Quel 1920 lo puoi tenere a 900mV tranquillo e consumare 100w in meno. Sempre oc è , ma dato per consumare meno.
Ma tra 0.825 e 0.900 in termini di temperatura la differenza dovrebbe essere evidente o sbaglio?
una 3090 a 0,900mv a 1920mhz consuma 300w o anche meno. contro i 500w a 2100mhz e non so quanti volt... per 5 fps?? cioè è il 7% scarso di performance in più... contro un consumo del 70% maggiore.
devil_mcry
16-11-2021, 09:48
una 3090 a 0,900mv a 1920mhz consuma 300w o anche meno. contro i 500w a 2100mhz e non so quanti volt... per 5 fps?? cioè è il 7% scarso di performance in più... contro un consumo del 70% maggiore.
si però se la metti in quel senso, di solito le top di gamma non hanno mai la miglior resa per watt nella line up... ci possono stare entrambe le posizioni insomma
più che altro io muoverei il focus su "quei 5fps servono realmente?" perché se sono 5 su 55 ok, se sono 5 su 100 è già diverso, se sono 5 su 200 sono inutili
fraussantin
16-11-2021, 09:49
Ma tra 0.825 e 0.900 in termini di temperatura la differenza dovrebbe essere evidente o sbaglio?Già da .85 a .9 cambia un po' , immagini di sì. Ma non ho provato
razor820
16-11-2021, 10:01
Già da .85 a .9 cambia un po' , immagini di sì. Ma non ho provato
io ad ora sto a 0.825 a 1800. dici che a 0.900 a 1920, sempre se regge, si riescono a recuperare 5 fps?
una 3090 a 0,900mv a 1920mhz consuma 300w o anche meno. contro i 500w a 2100mhz e non so quanti volt... per 5 fps?? cioè è il 7% scarso di performance in più... contro un consumo del 70% maggiore.
Io sto a 1905@0.856mv e nelle situazioni piu' stressanti arriva al PL di 350w.
[K]iT[o]
16-11-2021, 10:17
si però se la metti in quel senso, di solito le top di gamma non hanno mai la miglior resa per watt nella line up... ci possono stare entrambe le posizioni insomma
più che altro io muoverei il focus su "quei 5fps servono realmente?" perché se sono 5 su 55 ok, se sono 5 su 100 è già diverso, se sono 5 su 200 sono inutili
Eh certe volte facendo due prove pratiche esce fuori quanto sprechiamo senza logica, mi sto giocando ME:Andromeda e ho notato che in FullHD a passare dai 144fps a 72 vado a risparmiare circa 150W, per una differenza pratica nella godibilità dello 0,003%.
fraussantin
16-11-2021, 11:08
io ad ora sto a 0.825 a 1800. dici che a 0.900 a 1920, sempre se regge, si riescono a recuperare 5 fps?Dipende dai giochi , ma credo di sì.
Ma prova anche 870 1905 .
A me teneva .
Ora l'ho rimesso a 900 solo perché ho un problema saltuario di drop di FPS e volevo capire cosa fosse. ( Tipo tutto funziona bene e all'improvviso fa un drop a 25 FPS per 3 secondi e lo fa ogni 2,3 GG indipendentemente dal Gioco , a volte me lo ha fatto anche nei menù con la scheda a riposo . Ma lo fa lo stesso
Penso siano le RAM che non sono mai state stabili al 100%. Su questo PC.
Cutter90
16-11-2021, 11:22
Normalmente a 2100 quanti W usa?
Dipende davvero tanto da gioco a gioco. 2100 non è stabile con la maggior parte dei giochi
mikael84
16-11-2021, 11:24
io ad ora sto a 0.825 a 1800. dici che a 0.900 a 1920, sempre se regge, si riescono a recuperare 5 fps?
Devi calcolarti la percentuale, che nel tuo caso è del 6% teorico, ciò significa che in realtà puoi recuperare 2/4/5% in base al gioco.
Ipotizzando il massimo sarebbero su 50, 3 fps (50-53), su 100, 6.;)
Cutter90
16-11-2021, 11:25
una 3090 a 0,900mv a 1920mhz consuma 300w o anche meno. contro i 500w a 2100mhz e non so quanti volt... per 5 fps?? cioè è il 7% scarso di performance in più... contro un consumo del 70% maggiore.
In fh5 non ci arriva proprio ai 480 watt. Arriva a 400.
Nei giochi in cui mi tira tutti i 500 watt di sicuro mettendo 900mv non va assolutamente a 300.
Il problema è che il discorso è troppo variabile da gioco a gioco per fare una considerazione massiva.
PS: io gioco con gli fps. Dei 50-150 watt in meno non me ne faccio nulla se poi perdo performance (dai 5 fps in su ovvio)
Cutter90
16-11-2021, 11:27
si però se la metti in quel senso, di solito le top di gamma non hanno mai la miglior resa per watt nella line up... ci possono stare entrambe le posizioni insomma
più che altro io muoverei il focus su "quei 5fps servono realmente?" perché se sono 5 su 55 ok, se sono 5 su 100 è già diverso, se sono 5 su 200 sono inutili
Ovviamente. Ma su 70, nello specifico caso, 5 fps sono ottimi
razor820
16-11-2021, 11:42
Devi calcolarti la percentuale, che nel tuo caso è del 6% teorico, ciò significa che in realtà puoi recuperare 2/4/5% in base al gioco.
Ipotizzando il massimo sarebbero su 50, 3 fps (50-53), su 100, 6.;)
quindi la percentuale è sempre la solita diciamo.. Certo se liquidassi la scheda spingendo a 2000mhz, quei 12 fps su 100 non sarebbero male. Visto che per quel mattonazzo di bf2042 bisogna pur inventarsi qualcosa
mikael84
16-11-2021, 12:11
quindi la percentuale è sempre la solita diciamo.. Certo se liquidassi la scheda spingendo a 2000mhz, quei 12 fps su 100 non sarebbero male. Visto che per quel mattonazzo di bf2042 bisogna pur inventarsi qualcosa
8/10fps di picco sicuramente su 100.
Cmq sei troppo basso di tensione, il best di questi transistor è 0,9v, dopo si comincia ad essere già troppo bassi. La stessa nvidia tra 0,85/0,9v ha messo il boost base.
Io sinceramente a meno di 0,9v non scenderei mai (salvo PL).
Samsung è un PP pessimo, soprattutto in questa versione, non a caso usa quella dei 14nm per massimizzare le rese.
sertopica
16-11-2021, 12:13
Avete letto? https://videocardz.com/newz/nvidia-image-scaling-goes-open-source-nis-now-available-to-all-games
:)
Thunder-74
16-11-2021, 12:41
Avete letto? https://videocardz.com/newz/nvidia-image-scaling-goes-open-source-nis-now-available-to-all-games
:)
si, come al solito l'altruismo di nVidia esce fuori quando costretta...
quindi la percentuale è sempre la solita diciamo.. Certo se liquidassi la scheda spingendo a 2000mhz, quei 12 fps su 100 non sarebbero male. Visto che per quel mattonazzo di bf2042 bisogna pur inventarsi qualcosa
Io ho liquidato la mia, pero' il rapporto costo/benefici non e' molto favorevole... :D
Thunder-74
16-11-2021, 12:51
quindi la percentuale è sempre la solita diciamo.. Certo se liquidassi la scheda spingendo a 2000mhz, quei 12 fps su 100 non sarebbero male. Visto che per quel mattonazzo di bf2042 bisogna pur inventarsi qualcosa
Comunque il problema di BF2042 è molto sulla CPU. Se da console attivi :
PerfOverlay.DrawFps 1
vedi i frames renderizzati dalla GPU e dalla CPU, e puoi renderti conto che picchi in basso si hanno sulla CPU.
Saranno i 128 players che peseranno molto, ma spero che possano ottimizzare, perchè dai vari video in rete, non c'è CPU che si salva su res sotto la 4k. Ci sono alcuni cores che arrivano al 100% di utilizzo e magari altre che rimangono scariche, ma mediamente su un 8 cores, sono tutte belle cariche.
Alekos Panagulis
16-11-2021, 13:30
si, come al solito l'altruismo di nVidia esce fuori quando costretta...
Ringraziamo Lisa e Amd.
Se fosse per JJ avremmo solo le 1660 e le pagheremmo 1k l'una.
Thunder-74
16-11-2021, 13:34
Nuovi drivers 496.76 WHQL LINK (https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/)
Game Ready
• Battlefield 2042
Gaming Technology
• Includes support for NVIDIA Image Scaling
Fixed Issues
• [WRC 8 FIA World Rally Championship/WRC 9 FIA World Rally Championship]: The games crash on launch. [3409320/3409312]
• [Tom Clancy's Ghost Recon Breakpoint]: Textures in the game may flicker. [3410593]
• [Transport Fever]: The game crashes upon launch. [3411731]
• Transport Fever 2]: Null pointer exception occurs in the display driver. [3409614]
• [Quake 2 RTX]: Image corruption occurs in the blurred (bloom effect) background. [3410802]
• [Far Cry 6][DirectX 12][GeFOrce RTX 3070 Ti]: With ULTRA + DXR + HD textures set, the game crashes at 4K. [3391784]
• [Detroit Become Human]: Random stuttering/freezing occurs in the game. [3389250]
• [Red Dead Redemption 2]: The game crashes with TDR or the system crashes while running the game. [200766423]
• [Call of Duty: Black Ops Cold War]: The game randomly crashes. [3413347]
• [Marvel's Avengers Xbox Game Pass for PC version]: Game may randomly crash during gameplay [3404644]
Known Issues
• [Supreme Command:Forged Alliance/Supreme Commander 2]: Performance drop when there is mouse movement. [3405920]
• [Deathloop][HDR]: TDR/corruption occurs in the game with Windows HDR enabled.
If this issue occurs, toggle the Windows HDR setting.
• Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
• [HDR][G-Sync]: Mouse pointer gets stuck after turning on HDR from the Windows Control Panel or after toggling G-Sync from the NVIDIA control panel. [200762998]
To work around, click the mouse (right or left button). The mouse cursor will be sluggish for a few seconds before returning to normal operation.
• [NVIDIA Advanced Optimus][NVIDIA Control Panel]: After setting the display multiplexer type to "dGPU", the setting is not preserved across a reboot or resume from S4. [200779758]
• [YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback. [3420164]
• [NVIDIA Image Scaling][Desktop]: The screen moves to the upper left corner on cold boot when Image Scaling is applied to the desktop. [3424721]
Do not apply NVIDIA Image Scaling to the desktop. It is intended only for video upscaling or for games which do not run with a scaling resolution unless the same Image Scaling resolution is applied on the desktop.
• [NVIDIA Image Scaling][DirectX 11 video apps]: With Image Scaling enabled, video playback is corrupted or results in a system hang after performing an HDR transition. [3431284]
If HDR is required to be toggled from the Microsoft Control Panel, be sure to switch to a different Image Scaling resolution.
• [NVIDIA Image Scaling]: After performing a clean install or over install over version 496.49, NVIDIA Image Scaling resolutions do not appear in the game. [3434708]
To work around,
a. Disable HDR in case it's enabled from the Microsoft Control Panel, enable Image Scaling and apply the Image Scaling resolution on the desktop, and then reboot the system.
b. If the previous instructions do not work, upgrade to the hotfix driver 496.84.
TigerTank
16-11-2021, 13:51
una 3090 a 0,900mv a 1920mhz consuma 300w o anche meno. contro i 500w a 2100mhz e non so quanti volt... per 5 fps?? cioè è il 7% scarso di performance in più... contro un consumo del 70% maggiore.
Vero, i risparmi in calore e potenza sono tangibili spesso senza cali prestazionali.
Alla fine dipende tutto anche dalla bontà della gpu, specialmente con i mattoni con RT. Imho tanto vale definire almeno 2 profili, uno di base e uno di "riserva" con tipo uno 0,050V in più per giochi più esosi.
Ma di sicuro perlomeno ad aria non è per nulla conveniente mantenere il vfdef di fabbrica, manco con le custom maggiorate...salvo una gpu sia proprio sfortunata.
@Thunder: bella lì, grazie.
razor820
16-11-2021, 14:05
Comunque il problema di BF2042 è molto sulla CPU. Se da console attivi :
PerfOverlay.DrawFps 1
vedi i frames renderizzati dalla GPU e dalla CPU, e puoi renderti conto che picchi in basso si hanno sulla CPU.
Saranno i 128 players che peseranno molto, ma spero che possano ottimizzare, perchè dai vari video in rete, non c'è CPU che si salva su res sotto la 4k. Ci sono alcuni cores che arrivano al 100% di utilizzo e magari altre che rimangono scariche, ma mediamente su un 8 cores, sono tutte belle cariche.
Si ho visto che 3 core arrivano al 90%. Assurdo un 12 core che non basta.
Restare sui 32vs32? Non capisco la smania dei 128 giocatori.
comunque ho letto adesso i nuovi driver di nvidia. Speriamo almeno che abbiano un minimo di impatto.
Delle ram più spinte potrebbero aiutare? Volevo prendere cl19 da 4600mhz
TigerTank
16-11-2021, 14:12
Qualche giorno fa è uscito anche NVCleanstall 1.12.0 (https://www.techpowerup.com/download/techpowerup-nvcleanstall/).
fraussantin
16-11-2021, 14:15
Qualche giorno fa è uscito anche NVCleanstall 1.12.0 (https://www.techpowerup.com/download/techpowerup-nvcleanstall/).Sarebbe tipo ddu?
TigerTank
16-11-2021, 14:23
Sarebbe tipo ddu?
No è un installer di drivers che te li scarica o puoi digli tu il pacchetto da gestire e che ti permette di customizzare l'installazione rimuovendo quel che non ti interessa.
Infatti io installo solo drivers, physx, drivers audio HDMI e USB-C.
Sto vedendo che in questa versione è anche apparsa questa voce sul DLSS.
http://i.imgur.com/g8gAtHHl.jpg (https://imgur.com/g8gAtHH) http://i.imgur.com/QqTyxKml.jpg (https://imgur.com/QqTyxKm)
Thunder-74
16-11-2021, 14:32
Si ho visto che 3 core arrivano al 90%. Assurdo un 12 core che non basta.
Restare sui 32vs32? Non capisco la smania dei 128 giocatori.
comunque ho letto adesso i nuovi driver di nvidia. Speriamo almeno che abbiano un minimo di impatto.
Delle ram più spinte potrebbero aiutare? Volevo prendere cl19 da 4600mhz
Con i Ryzen so che la freq migliore è 3733 per le ram, perché lavorerebbe in syncro con la cache . Cerca info perché non ho mai approfondito molto il discorso.
Io non spederei soldi sulle mem. Aspetta che sicuramente miglioreranno con qualche patch.
Inviato dal mio iPhone X utilizzando Tapatalk
razor820
16-11-2021, 14:55
Con i Ryzen so che la freq migliore è 3733 per le ram, perché lavorerebbe in syncro con la cache . Cerca info perché non ho mai approfondito molto il discorso.
Io non spederei soldi sulle mem. Aspetta che sicuramente miglioreranno con qualche patch.
Inviato dal mio iPhone X utilizzando Tapatalk
frequenza alquanto strana.
Ok grazie.
Discorso radiatore per la gpu. un 360 slim solo per la scheda video basterebbe?
Che temperature potrei ottenere?
FrancoBit
16-11-2021, 15:02
frequenza alquanto strana.
Ok grazie.
Discorso radiatore per la gpu. un 360 slim solo per la scheda video basterebbe?
Che temperature potrei ottenere?
L'ottimo dovrebbe essere le frequenze ram 1:1 con infinity fabric.
Sembra che la soluzione più diffusa sia 3800mhz;
https://www.techpowerup.com/forums/threads/what-is-your-max-infinity-fabric-on-ryzen-5000-september-2021-edition.286824/
frequenza alquanto strana.
Ok grazie.
Discorso radiatore per la gpu. un 360 slim solo per la scheda video basterebbe?
Che temperature potrei ottenere?
Io per la mia ho messo un 140 fat sul retro del case ed un 360 slim sul frontale, in questo modo resto sempre entro i 60°.
L'ottimo dovrebbe essere le frequenze ram 1:1 con infinity fabric.
Sembra che la soluzione più diffusa sia 3800mhz;
https://www.techpowerup.com/forums/threads/what-is-your-max-infinity-fabric-on-ryzen-5000-september-2021-edition.286824/
Sui ryzen una volta arrivato a 3600 tutto dipende dai subtimings. Guardate memorie con subtimings tirati vs memorie con subtimings di default.
https://www.techspot.com/article/2140-ryzen-5000-memory-performance/
Spero che con la 3d vcache migliori la dipendenza da memorie veloci. Io monto delle 3600 CL14.
Sui ryzen una volta arrivato a 3600 tutto dipende dai subtimings. Guardate memorie con subtimings tirati vs memorie con subtimings di default.
https://www.techspot.com/article/2140-ryzen-5000-memory-performance/
Spero che con la 3d vcache migliori la dipendenza da memorie veloci. Io monto delle 3600 CL14.
Io direi arrivati a 3800/1900 tutto dipende dai timing,visto che lavora in sincrono
Solo che a quelle frequenze in sincrono con timing decenti,pochi cihip ci arrivano,io mi sono fermato a 3733/1866Mhz,con timing tirati all'osso,le ram salgono anche oltre ma il FLCK mura
razor820
16-11-2021, 15:58
Io per la mia ho messo un 140 fat sul retro del case ed un 360 slim sul frontale, in questo modo resto sempre entro i 60°.
Com che voltaggio/frequenza?
Temperature memorie?
Com che voltaggio/frequenza?
Temperature memorie?
Io sto a 1905@0.856mv e le ram stanno pochi gradi sopra alla temp. della gpu, pero' ha la backplate attiva.
razor820
16-11-2021, 16:45
Io sto a 1905@0.856mv e le ram stanno pochi gradi sopra alla temp. della gpu, pero' ha la backplate attiva.
Ma sono alte le temp..
Io a 0.825 sto max sui 66 gradi, le memoria certo arrivano a 85.
A sto punto non so proprio se conviene liquidare
Con i Ryzen so che la freq migliore è 3733 per le ram, perché lavorerebbe in syncro con la cache . Cerca info perché non ho mai approfondito molto il discorso.
Io non spederei soldi sulle mem. Aspetta che sicuramente miglioreranno con qualche patch.
Inviato dal mio iPhone X utilizzando Tapatalk
Dipende a che frequenza riesce a tenere l'infinity fabric la cpu, ho visto anche dei 3800 in sincrono quindi 1900 di IF....oppure si fa come intel che si attiva il "gear2" mettendo un rapporto di 1:2 fra IF e bus ram.....ovviamente sconsigliabile per n motivi....
Le 4600 bdie sul mercatino mi tentavano anche a me ma tanto ho una sola di CPU o scheda madre o kit ram bho e sarebbero sprecatissime.....e poi non sarebbero manco future proof perchè poi i 16gb inizierebbero a diventare stretti e mi girerebbero le balle.....terrò botta fino ad AM5 quando ci saranno anche DDR5 serie da liquidare :oink:
Spero che con la 3d vcache migliori la dipendenza da memorie veloci. Io monto delle 3600 CL14.
in realtà il concetto di cache va proprio nell'esatto opposto: più cache serve ad evitare continue richieste ram.....è per questo motivo che ryzen spacca in multicore......
Sui ryzen una volta arrivato a 3600 tutto dipende dai subtimings. Guardate memorie con subtimings tirati vs memorie con subtimings di default.
https://www.techspot.com/article/2140-ryzen-5000-memory-performance/
Spero che con la 3d vcache migliori la dipendenza da memorie veloci. Io monto delle 3600 CL14.
però quasi quasi un altro kit bdie da 16gb per andare su quattro stick quindi 4x1 single rank potrebbe essere interessante...il meglio dei due mondi, anche pagando qualcosina in termini di timings lasciati sull'altare dell'avere quattro moduli invece che due.... :fagiano: mmmmmmmmm quasi quasi quando mi farò sto 5800x passo a 32gb (assolutamente inutili ok ma tant'è)
Ma sono alte le temp..
Io a 0.825 sto max sui 66 gradi, le memoria certo arrivano a 85.
A sto punto non so proprio se conviene liquidare
Io ad aria stavo a 75°, ma il guadagno piu' grande l'ho avuto sulla cpu, visto che prima la scheda video buttava aria calda dentro al case e lo faceva diventare un forno andando a peggiorare il raffreddamento della cpu.
Ora funziona tutto decisamente meglio ed e' anche molto piu' bello da vedere. (e decisamente piu' silenzioso) :D
fraussantin
16-11-2021, 16:58
però quasi quasi un altro kit bdie da 16gb per andare su quattro stick quindi 4x1 single rank potrebbe essere interessante...il meglio dei due mondi, anche pagando qualcosina in termini di timings lasciati sull'altare dell'avere quattro moduli invece che due.... :fagiano: mmmmmmmmm quasi quasi quando mi farò sto 5800x passo a 32gb (assolutamente inutili ok ma tant'è)Boh l'idea l'avevo anche io di cercare delle bdie modeste da 32 giga ,ma ho aperto Amazon e mi è preso un coccolone.
razor820
16-11-2021, 17:01
Io ad aria stavo a 75°, ma il guadagno piu' grande l'ho avuto sulla cpu, visto che prima la scheda video buttava aria calda dentro al case e lo faceva diventare un forno andando a peggiorare il raffreddamento della cpu.
Ora funziona tutto decisamente meglio ed e' anche molto piu' bello da vedere. (e decisamente piu' silenzioso) :D
Puoi postare qualche foto del sistema? Sempre se ti va
sertopica
16-11-2021, 17:01
[B]Nuovi drivers 496.76 WHQL LINK (https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/)
cut
Qui articolo a riguardo: https://www.nvidia.com/en-us/geforce/news/battlefield-2042-game-ready-driver/
E video di presentazione del nuovo DLSS 2.3: https://youtu.be/SBjL0M25t04
Mi sembra che ora non si possa piu' abilitare lo sharpening soltanto... O sbaglio? :confused:
Ringraziamo Lisa e Amd.
Se fosse per JJ avremmo solo le 1660 e le pagheremmo 1k l'una.
Come scritto da qualche troll/clone in sezione news si tratta di un atto di misericordia da parte di nvidia, chiamata la benefattrice. :asd: :asd:
Boh l'idea l'avevo anche io di cercare delle bdie modeste da 32 giga ,ma ho aperto Amazon e mi è preso un coccolone.
16 li ho già, ora che tutti si fanno le pippe sulle DDR5 o sulle DDR4 da 4000 in su svendono tanti bei kit bdie da "soli" 3200 MT/s :fagiano: ne ho visti almeno due o tre kit sul mercatino solo oggi :stordita:
fraussantin
16-11-2021, 17:12
16 li ho già, ora che tutti si fanno le pippe sulle DDR5 o sulle DDR4 da 4000 in su svendono tanti bei kit bdie da "soli" 3200 MT/s :fagiano: ne ho visti almeno due o tre kit sul mercatino solo oggi :stordita:Ma non vanno comprati uguali?
in realtà il concetto di cache va proprio nell'esatto opposto: più cache serve ad evitare continue richieste ram.....è per questo motivo che ryzen spacca in multicore......
era quello che volevo dire ma ho detto l'opposto alla fine :D
TigerTank
16-11-2021, 17:40
Qui articolo a riguardo: https://www.nvidia.com/en-us/geforce/news/battlefield-2042-game-ready-driver/
E video di presentazione del nuovo DLSS 2.3: https://youtu.be/SBjL0M25t04
Mi sembra che ora non si possa piu' abilitare lo sharpening soltanto... O sbaglio? :confused:
E' vero...tra le opzioni non c'è più lo sharpening.
EDIT: ah no, trovato...è diventato "ridimensionamento immagini".
http://i.imgur.com/ABJla4sl.jpg (https://imgur.com/ABJla4s)
Comunque il pannello nvidia è davero stutteroso quando vai a cambiare le impostazioni dai menu a tendina, avrebbe bisogno di una rinnovata profonda.
sertopica
16-11-2021, 18:02
E' vero...tra le opzioni non c'è più lo sharpening.
EDIT: ah no, trovato...è diventato "ridimensionamento immagini".
cut
Comunque il pannello nvidia è davero stutteroso quando vai a cambiare le impostazioni dai menu a tendina, avrebbe bisogno di una rinnovata profonda.
Certo ma con quell'opzione attivi allo stesso tempo anche lo scaling. Sono diventate due cose inseparabili. Prima invece potevi selezionare lo scaling o meno e poi ti apparivano le risoluzioni custom.
Riguardo al pannello beh, abbiamo quell'interfaccia grafica dai tempi di Win XP... Completamente anacronistica. Non mi aspetto chissa' cosa ma almeno potrebbero introdurre un'UI che si adatta alla risoluzione.
https://abload.de/img/vecchiopannellosharpepekfi.jpg
Scusate, sapete dove devo flaggare per disattivare il caricamento automatico in "MSI Live update 6"?
Fabio
Puoi postare qualche foto del sistema? Sempre se ti va
Si certo, ma non e' da prendere da esempio come qualità del montaggio e' la prima volta che lo faccio e non sono molto dedito all'ordine dei cavi... :D
Purtroppo anche il mio case non e' proprio adatto per il liquido.
https://imgur.com/a/LHbAGlq
razor820
16-11-2021, 19:13
Si certo, ma non e' da prendere da esempio come qualità del montaggio e' la prima volta che lo faccio e non sono molto dedito all'ordine dei cavi... :D
Purtroppo anche il mio case non e' proprio adatto per il liquido.
https://imgur.com/a/LHbAGlq
Diciamo che alla fine hai fatto un miracolo con quel case
Comunque il problema di BF2042 è molto sulla CPU. Se da console attivi :
PerfOverlay.DrawFps 1
vedi i frames renderizzati dalla GPU e dalla CPU, e puoi renderti conto che picchi in basso si hanno sulla CPU.
Saranno i 128 players che peseranno molto, ma spero che possano ottimizzare, perchè dai vari video in rete, non c'è CPU che si salva su res sotto la 4k. Ci sono alcuni cores che arrivano al 100% di utilizzo e magari altre che rimangono scariche, ma mediamente su un 8 cores, sono tutte belle cariche.
Ho messo il comando della console su bf2042.
Non ho capito bene come funziona.
Quindi se la cpu diventa gialla o rossa e fa meno fps della scheda video significa che fa bottleneck?
edit: Ma perché ultimamente non mi funziona la curva del voltaggio di Msi ab?
Ovvero è impostata su 0.825 a 1800, ma poi da hwinfo dopo una sessione di gioco vedo 1.081!! wtf??
Black"SLI"jack
16-11-2021, 20:14
per essere sicuro che MSI AB mi applichi la curva, dopo essermi creato la curca ed averla salvata in uno dei 5 slot a disposizione, vado nelle impostazioni, tab profili ed imposto per il 3d la curva che mi sono salvato. mentre per il 2d non metto nulla. sia con la 1080, la 2080ti che la 3090 non ho problemi di applicazione della curva personalizzata.
sertopica
16-11-2021, 20:25
Intanto sono gia' usciti gli hotfix 496.84 :asd: :asd:
https://international.download.nvidia.com/Windows/496.84hf/496.84-desktop-notebook-win10-win11-64bit-international-dch.hf.exe
Unico fix:
• [NVIDIA Image Scaling]: After performing a clean install or over install over version 496.49, NVIDIA Image Scaling resolutions do not appear in the game. [3434708]
fraussantin
16-11-2021, 20:53
Intanto sono gia' usciti gli hotfix 496.84 :asd: :asd:
https://international.download.nvidia.com/Windows/496.84hf/496.84-desktop-notebook-win10-win11-64bit-international-dch.hf.exe
Unico fix:
• [NVIDIA Image Scaling]: After performing a clean install or over install over version 496.49, NVIDIA Image Scaling resolutions do not appear in the game. [3434708]
fra un po siamo ad un giga di driver ... voglio vedere quando si fermano e iniziano a togliere inutility da dentro il pacco
bronzodiriace
16-11-2021, 21:15
però quasi quasi un altro kit bdie da 16gb per andare su quattro stick quindi 4x1 single rank potrebbe essere interessante...il meglio dei due mondi, anche pagando qualcosina in termini di timings lasciati sull'altare dell'avere quattro moduli invece che due.... :fagiano: mmmmmmmmm quasi quasi quando mi farò sto 5800x passo a 32gb (assolutamente inutili ok ma tant'è)Considerato che 32gb non li usi in gaming su ryzen non ti conviene perdere in timing
Inviato dal mio MAR-LX1A utilizzando Tapatalk
peppewan
16-11-2021, 21:36
Certo ma con quell'opzione attivi allo stesso tempo anche lo scaling. Sono diventate due cose inseparabili. Prima invece potevi selezionare lo scaling o meno e poi ti apparivano le risoluzioni custom.
Riguardo al pannello beh, abbiamo quell'interfaccia grafica dai tempi di Win XP... Completamente anacronistica. Non mi aspetto chissa' cosa ma almeno potrebbero introdurre un'UI che si adatta alla risoluzione.
https://abload.de/img/vecchiopannellosharpepekfi.jpg
ma quindi attivando queste opzioni nel "vecchio" pannello è come se si attivasse l'Image Scaling?
devil_mcry
16-11-2021, 21:47
L'ottimo dovrebbe essere le frequenze ram 1:1 con infinity fabric.
Sembra che la soluzione più diffusa sia 3800mhz;
https://www.techpowerup.com/forums/threads/what-is-your-max-infinity-fabric-on-ryzen-5000-september-2021-edition.286824/
sta cosa non ha senso non potevano aspettare mezza giornata in più e rilasciare questa XD?
fraussantin
16-11-2021, 22:03
E' vero...tra le opzioni non c'è più lo sharpening.
EDIT: ah no, trovato...è diventato "ridimensionamento immagini".
Comunque il pannello nvidia è davero stutteroso quando vai a cambiare le impostazioni dai menu a tendina, avrebbe bisogno di una rinnovata profonda.
io ho installato direttamente l'hotfix e non si è aggiornato il pannello LOL
https://i.postimg.cc/fLcZyxMQ/screenshot-389.jpg
e secondo loro cosa dovrei fare reinstallare da 0 prima quello buggato poi il fix? vabbe lo provo alla prossima relese :asd:
https://i.postimg.cc/Vv48BmS7/screenshot-390.jpg..
Unico fix:
• [NVIDIA Image Scaling]: After performing a clean install or over install over version 496.49, NVIDIA Image Scaling resolutions do not appear in the game. [3434708]
spe unico bug ancora presente nel mio caso :asd:
edit: Ma perché ultimamente non mi funziona la curva del voltaggio di Msi ab?
Ovvero è impostata su 0.825 a 1800, ma poi da hwinfo dopo una sessione di gioco vedo 1.081!! wtf??
mm controlla in diretta sull'osd che sia impostata correttamente .
nel caso controlla che ti abbia salvato bene il profilo .
razor820
16-11-2021, 22:07
per essere sicuro che MSI AB mi applichi la curva, dopo essermi creato la curca ed averla salvata in uno dei 5 slot a disposizione, vado nelle impostazioni, tab profili ed imposto per il 3d la curva che mi sono salvato. mentre per il 2d non metto nulla. sia con la 1080, la 2080ti che la 3090 non ho problemi di applicazione della curva personalizzata.
Come fai a impostare diversi profili e differenziarli per 2d o 3d?
Comunque si anch io ho diversi profili su msi Ab, e anch io per essere sicuro che vengano impostati, switcho tra un profilo e l altro è poi verifico direttamente la curva
Ma non vanno comprati uguali?
Si si cerca di accoppiare moduli dello stesso modello per garanzia (o quas) di funzionamento e configurazione ma non è un vincolo stringente se sai bene l’argomento
Vero, i risparmi in calore e potenza sono tangibili spesso senza cali prestazionali.
Alla fine dipende tutto anche dalla bontà della gpu, specialmente con i mattoni con RT. Imho tanto vale definire almeno 2 profili, uno di base e uno di "riserva" con tipo uno 0,050V in più per giochi più esosi.
Ma di sicuro perlomeno ad aria non è per nulla conveniente mantenere il vfdef di fabbrica, manco con le custom maggiorate...salvo una gpu sia proprio sfortunata.
@Thunder: bella lì, grazie.
Io la tengo 1980 a 0.95v pl400w. Solo nei mattoni arrivo a sfiorare il pl, altrimenti sto sotto i 350w
Anche a voi i nuovi driver hanno peggiorato lo score a 3DMark Time Spy? A me di quasi 300 punti 🤨
Inviato dal mio Redmi Note 8T utilizzando Tapatalk
Thunder-74
17-11-2021, 07:59
GeForce Hotfix Driver 496.84
LINK (https://nvidia.custhelp.com/app/answers/detail/a_id/5264)
The hotfix addresses the following issues:
[NVIDIA Image Scaling]: After performing a clean install or over install over version 496.49, NVIDIA Image Scaling resolutions do not appear in the game. [3434708]
Che punteggio fate con time spy?
devil_mcry
17-11-2021, 08:40
GeForce Hotfix Driver 496.84
LINK (https://nvidia.custhelp.com/app/answers/detail/a_id/5264)
The hotfix addresses the following issues:
[NVIDIA Image Scaling]: After performing a clean install or over install over version 496.49, NVIDIA Image Scaling resolutions do not appear in the game. [3434708]
Ho una domanda, ma basta che installo gli hotfix o devo prima mettere i 76?
scusate la domanda, forse banale, ma perchè tutte le testate parlano adesso di DLSS 2.3 quando c'è da oltre un mese e siamo già alla 2.3.4?
Evidenziano benefici davvero significativi, basta sostituire il solito file per beneficiarne, no?
Ho una domanda, ma basta che installo gli hotfix o devo prima mettere i 76?
è oltre 800mb di file, direi che include tutto :)
Sniper88
17-11-2021, 08:53
NVIDIA has officially announced the release of DLSS 2.3.
NVIDIA DLSS 2.3 is available now in 16 titles, including:
Baldur's Gate 3
Bright Memory: Infinite
Crysis 2 Remastered
Crysis 3 Remastered
Cyberpunk 2077
Deathloop
DOOM Eternal
Grand Theft Auto III - Definitive Edition
Grand Theft Auto: San Andreas - Definitive Edition
Grand Theft Auto: Vice City - Definitive Edition
Jurassic World Evolution 2
Marvel's Guardians of the Galaxy
Rise of the Tomb Raider
Shadow of the Tomb Raider
Sword & Fairy 7
Fonte: https://www.guru3d.com/news-story/nvidia-has-officially-announced-the-release-of-dlss-2-3.html
devil_mcry
17-11-2021, 08:59
scusate la domanda, forse banale, ma perchè tutte le testate parlano adesso di DLSS 2.3 quando c'è da oltre un mese e siamo già alla 2.3.4?
Evidenziano benefici davvero significativi, basta sostituire il solito file per beneficiarne, no?
è oltre 800mb di file, direi che include tutto :)
penso di si non mi ha chiesto niente, speriamo abbiano risolto i bug che avevo con la tv
NVIDIA has officially announced the release of DLSS 2.3.
Fonte: https://www.guru3d.com/news-story/nvidia-has-officially-announced-the-release-of-dlss-2-3.html
ma a quella remastered del cavolo di gta serve pure il dlss XD?
Sniper88
17-11-2021, 09:16
penso di si non mi ha chiesto niente, speriamo abbiano risolto i bug che avevo con la tv
ma a quella remastered del cavolo di gta serve pure il dlss XD?
Da quello che ho capito, hanno aggiunto anche il Ray Tracing. Con schede come la RTX 2060, potrebbe anche aiutare. Sto dicendo una fesseria?
fraussantin
17-11-2021, 09:19
Ho una domanda, ma basta che installo gli hotfix o devo prima mettere i 76?Io ho messo l'hotfix da pulito e le nuove funzioni non ci sono.
Quindi ti conviene fare il passaggio.
TigerTank
17-11-2021, 09:20
io ho installato direttamente l'hotfix e non si è aggiornato il pannello LOL
https://i.postimg.cc/fLcZyxMQ/screenshot-389.jpg
e secondo loro cosa dovrei fare reinstallare da 0 prima quello buggato poi il fix? vabbe lo provo alla prossima relese :asd:
https://i.postimg.cc/Vv48BmS7/screenshot-390.jpg..
spe unico bug ancora presente nel mio caso :asd:
No Frauss, è giusto così. Il pannello con gli hotfix non cambia e la casellina gpu scaling non c'è più perchè come ha scritto Sertopica nel suo post ormai sono 2 cose fuse insieme. Da quello che mi pare di capire hanno fatto uscire gli hotfix perchè una volta attivato il "Ridimensionamento Immagine" nel pannello Nvidia, non apparivano comunque le risoluzioni(che puoi vedere anche nella scheda delle risoluzioni, titolate "Scala Risoluzione") nei giochi.
In pratica non c'è più l'aumento di nitidezza indipendente ed è sparito "l'ignore film grain".
Io comunque non ho mai usato quelle features...e per la nitidezza ho sempre usato il lumasharpen del reshade se non già presente un qualche settaggio ad hoc nel gioco stesso.
Io la tengo 1980 a 0.95v pl400w. Solo nei mattoni arrivo a sfiorare il pl, altrimenti sto sotto i 350w
Idem.
scusate la domanda, forse banale, ma perchè tutte le testate parlano adesso di DLSS 2.3 quando c'è da oltre un mese e siamo già alla 2.3.4?
Evidenziano benefici davvero significativi, basta sostituire il solito file per beneficiarne, no?
Perchè tra file presente da provare e gioco ufficialmente aggiornato ad X versione c'è differenza :)
Nel secondo caso in teoria il gioco dovrebbe essere stato aggiornato per la piena compatibilità con la X versione ed in teoria la dll dovrebbe venire aggiornata dallo sviluppatore stesso.
Infatti quando vai nel database di TPU, vedi che indicano anche da dove arriva la nuova versione di DLSS aggiunta.
sertopica
17-11-2021, 09:25
Da quello che ho capito, hanno aggiunto anche il Ray Tracing. Con schede come la RTX 2060, potrebbe anche aiutare. Sto dicendo una fesseria?
No non c'e' alcun ray tracing, ma viste le prestazioni scandalose che ha pure senza, a sto punto il dlss potrebbe aiutare. :asd:
Comunque tocca aspettare che gli sviluppatori rilascino una versione del dlss con il codice specifico per il gioco, se si vuole trarre pieno vantaggio dalla nuova versione. Ogni engine e' una storia a se'.
PS: ultimo post interessante su questo nis https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1291259-nvidia-releases-open-source-image-scaling-sdk-with-cross-platform-gpu-support#post1291309
devil_mcry
17-11-2021, 09:42
Ragazzi ma perché se attivo il G-Sync la GPU boosta meno :| -.- ? circa 50mhz in meno
TigerTank
17-11-2021, 09:50
No non c'e' alcun ray tracing, ma viste le prestazioni scandalose che ha pure senza, a sto punto il dlss potrebbe aiutare. :asd:
Comunque tocca aspettare che gli sviluppatori rilascino una versione del dlss con il codice specifico per il gioco, se si vuole trarre pieno vantaggio dalla nuova versione. Ogni engine e' una storia a se'.
PS: ultimo post interessante su questo nis https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1291259-nvidia-releases-open-source-image-scaling-sdk-with-cross-platform-gpu-support#post1291309
Piuttosto da riprovare Hellblade in cui avrebbero aggiunto effetti (https://gaming.hwupgrade.it/news/videogames/hellblade-senua-s-sacrifice-con-ray-tracing-nvidia-dlss-e-amd-fsr-su-pc_102531.html) ray tracing ed il DLSS.
Perchè tra file presente da provare e gioco ufficialmente aggiornato ad X versione c'è differenza :)
Nel secondo caso in teoria il gioco dovrebbe essere stato aggiornato per la piena compatibilità con la X versione ed in teoria la dll dovrebbe venire aggiornata dallo sviluppatore stesso.
Infatti quando vai nel database di TPU, vedi che indicano anche da dove arriva la nuova versione di DLSS aggiunta.
si, ma il beneficio in teoria arriva direttamente con la sostituzione della dll (mi sembrava fosse una dll). Altrimenti è inutile sostituirla ogni volta.
il rilascio della 2.3 è avvenuto mesi fa, sicuramente quando viene rilasciata la nuova dll non significa che il gioco riceve aggiornamenti di conseguenza nell'immediato, ma sembra che da 2/3 giorni ci sia stato un rilascio importante da nvidia quando non riesco a capire cosa sia cambiato rispetto inizi ottobre (rilascio del 2.3 ufficiale) .
Ci sta anche il ritardo delle testate, ma perchè TUTTE proprio ora?
devil_mcry
17-11-2021, 10:13
Ho un paio di domande
Se noi guardiamo qui https://www.techpowerup.com/review/nvidia-geforce-rtx-3070-founders-edition/40.html
Loro parlano di AVG GPU frequency, se io apro il mio gpu-z con la gpu a +125 = 1850 di boost e lancio il super position, mi va a 1880mhz circa con picco a 2010mhz, perfcap tdp
Quindi sono 100mhz sotto il loro peggior risultato giusto? Chiedo per capire se è una frequenza conservativa così da non aver problemi in futuro, alla fine mi ha dato il 5% in più
Ultima cosa ho notato però che se attivo il gsync boosta meno, ma come mai?
sertopica
17-11-2021, 10:19
Piuttosto da riprovare Hellblade in cui avrebbero aggiunto effetti (https://gaming.hwupgrade.it/news/videogames/hellblade-senua-s-sacrifice-con-ray-tracing-nvidia-dlss-e-amd-fsr-su-pc_102531.html) ray tracing ed il DLSS.
No grazie ho gia' le mie turbe psichiche non voglio rivivere anche quelle di una vichinga. :asd:
Comunque se qualcuno puo' potrebbe fare l'upload della dll presente in hellblade?
TigerTank
17-11-2021, 10:29
si, ma il beneficio in teoria arriva direttamente con la sostituzione della dll (mi sembrava fosse una dll). Altrimenti è inutile sostituirla ogni volta.
il rilascio della 2.3 è avvenuto mesi fa, sicuramente quando viene rilasciata la nuova dll non significa che il gioco riceve aggiornamenti di conseguenza nell'immediato, ma sembra che da 2/3 giorni ci sia stato un rilascio importante da nvidia quando non riesco a capire cosa sia cambiato rispetto inizi ottobre (rilascio del 2.3 ufficiale) .
Ci sta anche il ritardo delle testate, ma perchè TUTTE proprio ora?
Non sempre...può essere che se gioco e dll cozzano hai anche effetti collaterali (ghosting e altro) perchè appunto non funziona bene.
Ecco perchè si dice "provare" una dll. Dunque è un bene se siano gli sviluppatori stessi ad aggiornare il tutto.
No grazie ho gia' le mie turbe psichiche non voglio rivivere anche quelle di una vichinga. :asd:
Comunque se qualcuno puo' potrebbe fare l'upload della dll presente in hellblade?
:D
Intanto magari prova a chiederlo nel thread della notizia.
Percio' l'aggiornamento del dlss e' slegato dai driver giusto? Lo aggiornano i giochi tramite patch?
TigerTank
17-11-2021, 10:36
Percio' l'aggiornamento del dlss e' slegato dai driver giusto? Lo aggiornano i giochi tramite patch?
Sì esatto, o le provi tu manualmente o è una questione degli sviluppatori tra gioco e relativa dll.
sertopica
17-11-2021, 10:38
:D
Intanto magari prova a chiederlo nel thread della notizia.
Mmh, la sezione news non mi sembra il posto migliore, piena di troll, cloni e negativita' generalizzata. :asd: :asd:
Comunque per rispondere a dono89, se ne sono usciti ora con il dlss 2.3 perche' hanno anche rilasciato il codice sorgente per NIS come risposta al FSR amd e allo stesso tempo hanno fatto sfoggio di superiorita' mostrando come il dlss 2.3 sia superiore e migliorato nel tempo. Come sempre 80 % marketing 20 % fuffa.. ehrr no... ciccia. :asd:
Thunder-74
17-11-2021, 10:42
Io ho messo l'hotfix da pulito e le nuove funzioni non ci sono.
Quindi ti conviene fare il passaggio.
Scusami, cosa no ti ha installato? Gli hotfix sono sempre basati sull'ultimo drivers usciti, non sono pacchetti incrementali.
Questi ultimi sono basati sui 496.76:
GeForce hotfix display driver version 496.84 is based on our latest Game Ready Driver 496.76.
Io l'ho provato oggi (ho una 6900xt però)
A me il ray tracing non piace come rende.
Si vede molto più pulito senza.
Oltre ad ammazzarmi praticamente 100 frame al secondo.
Sulle RX6000 il RT ti ammazzerà sempre un po'. Almeno per adesso.
TigerTank
17-11-2021, 11:08
Mmh, la sezione news non mi sembra il posto migliore, piena di troll, cloni e negativita' generalizzata. :asd: :asd:
Comunque per rispondere a dono89, se ne sono usciti ora con il dlss 2.3 perche' hanno anche rilasciato il codice sorgente per NIS come risposta al FSR amd e allo stesso tempo hanno fatto sfoggio di superiorita' mostrando come il dlss 2.3 sia superiore e migliorato nel tempo. Come sempre 80 % marketing 20 % fuffa.. ehrr no... ciccia. :asd:
:D
Da un video su youtube (https://www.youtube.com/watch?v=X3RgibgRRkI) sembrerebbe la 2.3.0.
Ovvio che c'è sempre anche strategia di marketing sotto, Nvidia ne è maestra.
Scusami, cosa no ti ha installato? Gli hotfix sono sempre basati sull'ultimo drivers usciti, non sono pacchetti incrementali.
Questi ultimi sono basati sui 496.76:
GeForce hotfix display driver version 496.84 is based on our latest Game Ready Driver 496.76.
Mi sa che ha confuso l'opzione del gpu scaling con il fatto che ora non ci sia più e che il fix riguardi la mancata presenza delle risoluzioni nei giochi.
Io l'ho provato oggi (ho una 6900xt però)
A me il ray tracing non piace come rende.
Si vede molto più pulito senza.
Oltre ad ammazzarmi praticamente 100 frame al secondo.
Mi sa che alla fine è la solita questione del ray tracing sviluppato insieme al gioco o patchato postumo...
Percio' l'aggiornamento del dlss e' slegato dai driver giusto? Lo aggiornano i giochi tramite patch?
ti rispondi in un secondo con una semplice prova: metti la ddl aggiornatissima su Metro (dlss 1, sempre che tu ce l'abbia).............e vedrai che non cambia una mazza perchè non basta la dll da sola :stordita:
devil_mcry
17-11-2021, 11:20
Io l'ho provato oggi (ho una 6900xt però)
A me il ray tracing non piace come rende.
Si vede molto più pulito senza.
Oltre ad ammazzarmi praticamente 100 frame al secondo.
non so come sia il gioco, lo dovrei riprovare post patch però il ray tracing migliora molto la scena se implementato bene
poi appunto dipende sempre dove e come è implementato ma di massima spero sarà sempre più diffuso
TigerTank
17-11-2021, 11:21
ti rispondi in un secondo con una semplice prova: metti la ddl aggiornatissima su Metro (dlss 1, sempre che tu ce l'abbia).............e vedrai che non cambia una mazza perchè non basta la dll da sola :stordita:
Metro Exodus (https://www.nvidia.com/en-us/geforce/news/metro-exodus-pc-enhanced-edition-ray-tracing-dlss/) è già stato aggiornato di suo :)
Ma quindi in pratica questa nuova versione "NVIDIA Image Scaling", sarebbe come un DLSS per i giochi che non ne abbiano supporto perchè permette di scalare tramite un algoritmo indipendente dal gioco ("that didn’t require game or SDK integrations to work").
sertopica
17-11-2021, 11:32
Metro Exodus (https://www.nvidia.com/en-us/geforce/news/metro-exodus-pc-enhanced-edition-ray-tracing-dlss/) è già stato aggiornato di suo :)
Ma quindi in pratica questa nuova versione "NVIDIA Image Scaling", sarebbe come un DLSS per i giochi che non ne abbiano supporto perchè permette di scalare tramite un algoritmo indipendente dal gioco ("that didn’t require game or SDK integrations to work").
Si', l'opzione era gia' presente nei driver nvidia da almeno un anno, se non di piu' (quel "gpu scaling" che vedevi sotto quando aprivi il menu dello sharpening). L'unica cosa che hanno aggiornato sono i filtri utilizzati per l'upscaling, da quello che ho capito, ed il fatto che metteranno il codice a disposizione su github. Per essere piu' precisi credo abbiano pubblicizzato di piu' questa "nuova" feature per consentire a tutti, anche quelli senza tensor cores e di conseguenza senza dlss, di usare una qualche forma di upscaling per aumentare le prestazioni.
PS: grazie per il video su Hellblade. ;)
TigerTank
17-11-2021, 11:39
Si', l'opzione era gia' presente nei driver nvidia da almeno un anno, se non di piu' (quel "gpu scaling" che vedevi sotto quando aprivi il menu dello sharpening). L'unica cosa che hanno aggiornato sono i filtri utilizzati per l'upscaling, da quello che ho capito, ed il fatto che metteranno il codice a disposizione su github.
PS: grazie per il video su Hellblade. ;)
Figurati.
Sì hanno anche migliorato l'algoritmo stesso.
"we have improved the scaling and sharpening algorithm to now use a 6-tap filter with 4 directional scaling and adaptive sharpening filters to boost performance. And we have also added an in-game sharpness slider, accessible via GeForce Experience, so you can do real-time customizations to sharpness."
Chi usa l'experience può regolare la nitidezza in tempo reale.
devil_mcry
17-11-2021, 11:51
certo che figo, stavo guardando qualche articolo
via di sto passo se la rtx3070 è un 2x di potenza bruta va la mia vecchia gtx1080, col dlss sempre più diffuso e questa funzione praticamente ho realisticamente triplicato le prestazioni soprattutto in 4k
Sì esatto, o le provi tu manualmente o è una questione degli sviluppatori tra gioco e relativa dll.
Perfetto grazie! Perciò se uno sviluppatore aggiorna il gioco con il nuovo dlss mi funziona anche se hi dei driver video vecchi, giusto?
Comunque per rispondere a dono89, se ne sono usciti ora con il dlss 2.3 perche' hanno anche rilasciato il codice sorgente per NIS come risposta al FSR amd e allo stesso tempo hanno fatto sfoggio di superiorita' mostrando come il dlss 2.3 sia superiore e migliorato nel tempo. Come sempre 80 % marketing 20 % fuffa.. ehrr no... ciccia. :asd:
:D
insomma, hanno dato evidenza di una nuova notizia (NIS) mettendo in luce oggi qualcosa che c'è da mesi.
Se è marketing ci sta, un po' meno le testate tech che sembra non ne fossero al corrente
certo che figo, stavo guardando qualche articolo
via di sto passo se la rtx3070 è un 2x di potenza bruta va la mia vecchia gtx1080, col dlss sempre più diffuso e questa funzione praticamente ho realisticamente triplicato le prestazioni soprattutto in 4k
Decisamente si. io con la mia 3060ti in 2K (con RT) faccio il doppio dei frame che facevo con la 1080ti a 1080p (senza RT)
Thunder-74
17-11-2021, 12:28
Con l'rt attivo è pieno di rumore video. Provatelo, magari amd renderizza male chissà.
P.s dopo se ho tempo posto screen comparativi
posto le mie.. 3440x1440 maxato
NO RT / NO DLSS
https://i.ibb.co/5MS2803/no-RT-no-DLSS.jpg (https://ibb.co/5MS2803)
NO RT / DLSS Quality
https://i.ibb.co/LtBSf37/No-RT-DLSS-Quality.jpg (https://ibb.co/LtBSf37)
RT ALTO / NO DLSS
https://i.ibb.co/TwK5zW0/RT-alto-no-DLSS.jpg (https://ibb.co/TwK5zW0)
RT ALTO / DLSS Quality
https://i.ibb.co/7SGJ1jY/RT-Alto-DLSS-Quality.jpg (https://ibb.co/7SGJ1jY)
ray_hunter
17-11-2021, 12:36
Con l'rt attivo è pieno di rumore video. Provatelo, magari amd renderizza male chissà.
P.s dopo se ho tempo posto screen comparativi
Saresti così gentile da dirmi quanto fai in 2K con RT alto senza FSR?
ray_hunter
17-11-2021, 12:37
posto le mie.. 3440x1440 maxato
NO RT / NO DLSS
https://i.ibb.co/5MS2803/no-RT-no-DLSS.jpg (https://ibb.co/5MS2803)
NO RT / DLSS Quality
https://i.ibb.co/LtBSf37/No-RT-DLSS-Quality.jpg (https://ibb.co/LtBSf37)
RT ALTO / NO DLSS
https://i.ibb.co/TwK5zW0/RT-alto-no-DLSS.jpg (https://ibb.co/TwK5zW0)
RT ALTO / DLSS Quality
https://i.ibb.co/7SGJ1jY/RT-Alto-DLSS-Quality.jpg (https://ibb.co/7SGJ1jY)
Caspita sarà la scelta della scena ma non si vede alcuna differenza tra RT ON e OFF. Si vede un'ombreggiatura differente ma è impossibile capire quale sia quella con RT ON
Thunder-74
17-11-2021, 12:38
segnalo che è uscito RTSS Rivatuner 7.3.2. final
LINK (https://www.guru3d.com/files-details/rtss-rivatuner-statistics-server-download.html)
Caspita sarà la scelta della scena ma non si vede alcuna differenza tra RT ON e OFF. Si vede un'ombreggiatura differente ma è impossibile capire quale sia quella con RT ON
ho preso un punto a caso, magari zona dove si vede poco il suo impiego..
posto le mie.. 3440x1440 maxato
game changer proprio :asd:
continuo a pensare che una gpu rt fino al 2022 inoltrato inizio 2023 sia assolutamente superflua :O o almeno mi convinco di sta cosa non potendomi permettere alcunchè in tal senso :asd:
FrancoBit
17-11-2021, 13:14
game changer proprio :asd:
continuo a pensare che una gpu rt fino al 2022 inoltrato inizio 2023 sia assolutamente superflua :O o almeno mi convinco di sta cosa non potendomi permettere alcunchè in tal senso :asd:
Personalmente, in merito a rtx, il vero game changer di cui ho beneficiato più volte è il DLSS. Rtx on o off, io faccio fatica a distinguerlo, ma ammetto di non essere occhio di lince :fagiano: (neanche ciecato però nè)
fraussantin
17-11-2021, 13:19
Vabbè RT più che altro è comodo a loro per fare prima a creare ombre e riflessi credibili , se i raster son fatti bene che differenze vuoi vedere.
Infatti in alcuni giochi toglievano roba per fare notare le differenze RT.
PS ma ê normale che in rdr2 il dlss in quality non da una cippa di FPS più?
Che sia CPU limited a 85 90 FPS?
TigerTank
17-11-2021, 13:26
certo che figo, stavo guardando qualche articolo
via di sto passo se la rtx3070 è un 2x di potenza bruta va la mia vecchia gtx1080, col dlss sempre più diffuso e questa funzione praticamente ho realisticamente triplicato le prestazioni soprattutto in 4k
Imho è anche una feature utile in tempi come questi nei quali tanta gente non ha upgradato perchè non ha trovato situazioni alla portata/si è rifiutata di svenarsi oltre limite per le vga papabili.
Perfetto grazie! Perciò se uno sviluppatore aggiorna il gioco con il nuovo dlss mi funziona anche se hi dei driver video vecchi, giusto?
No anche i drivers sono importanti perchè il gioco viene aggiornato dallo sviluppatore, dll DLSS inclusa, ma ovviamente i drivers fanno da supporto :)
Anche perchè se usi l'experience, da lì si settano anche i profili ottimizzati in automatico. Quindi sempre meglio aggiornare anche i drivers. IMHO.
Caspita sarà la scelta della scena ma non si vede alcuna differenza tra RT ON e OFF. Si vede un'ombreggiatura differente ma è impossibile capire quale sia quella con RT ON
Alla fine, se non giocandoci, meglio aspettare che su youtube esca qualche buon video comparativo.
segnalo che è uscito RTSS Rivatuner 7.3.2. final
LINK (https://www.guru3d.com/files-details/rtss-rivatuner-statistics-server-download.html)
Thanks :)
ray_hunter
17-11-2021, 13:34
game changer proprio :asd:
continuo a pensare che una gpu rt fino al 2022 inoltrato inizio 2023 sia assolutamente superflua :O o almeno mi convinco di sta cosa non potendomi permettere alcunchè in tal senso :asd:
In alcuni giochi da un bell'apporto.
Giocare Control o Metro Exodus con RT fa davvero la differenza.
In altri giochi invece è veramente buttato li.
La sensazione spesso è che sia quella feature che permette ai produttori di GPU di promuovere GPU più potenti ma in realtà se ci si preoccupasse di creare assests migliori si avrebbero risultati nettamente migliori che non mettere il ray tracing...
Faccio un esempio pratico:
gli ultimi 3 Call of Duty:
Cold wars in RT è il più pesante di tutti eppure tra questo, Modern Warfare e Vanguard è il meno bello da vedere.
Per assurdo Vanguard forse è il migliore senza traccia di RT.
Anche Kena o FH5 senza RT sono nettamente migliori di tanti titoli che implementano RT diventando mattoni...
Questa cosa secondo me è davvero fastidiosa.
...e anche Control se vogliamo, rispetto a Quantum Break fa un passo indietro per quanto riguarda il dettaglio delle ambientazioni per poter esibire l'RT, però almeno è implementato bene ed è in un impianto artistico e di design contestualizzato con la storia...
razor820
17-11-2021, 14:07
segnalo che è uscito RTSS Rivatuner 7.3.2. final
LINK (https://www.guru3d.com/files-details/rtss-rivatuner-statistics-server-download.html)
ho preso un punto a caso, magari zona dove si vede poco il suo impiego..
Ottimo.
Forse adesso funziona con bf2042.
Visto che dovevo per forza forzare il rilevamento su HIGH
Thunder-74
17-11-2021, 14:14
Ottimo.
Forse adesso funziona con bf2042.
Visto che dovevo per forza forzare il rilevamento su HIGH
io lo tenevo su Low e funzionava ... però in stealth mode
https://i.ibb.co/JycTQrF/Immagine-2021-11-17-151408.png
TigerTank
17-11-2021, 14:21
Io di solito uso la Raster3D con il carattere Unispace :D
ray_hunter
17-11-2021, 14:33
Faccio un video più tardi e lo posto
Molto gentile.
Grazie
devil_mcry
17-11-2021, 15:03
cmq io continuo a non capire perché il gsync ha perdere del turbo alla GPU sia def che in OC
assurdo
sertopica
17-11-2021, 15:28
Io ho rimesso i drivers vecchi, sto sharpening non mi convince appieno ed e' pure scomparsa l'opzione "ignore film grain". Con Cyberpunk si vede molto meglio col vecchio sharpening, forse quello nuovo e' piu' aggressivo e alla vecchia percentuale che usavo equivale adesso ad un livello di nitidezza piu' marcato. :boh:
Credo mi avesse anche incasinato il profilo monitor creando queste res personalizzate, che per inciso neanche voglio utilizzare. :asd:
fraussantin
17-11-2021, 16:07
cmq io continuo a non capire perché il gsync ha perdere del turbo alla GPU sia def che in OC
assurdoIn che senso in oc?
Impostando un clock fisso e un voltaggio fisso a me rimane.
Poi certo varia in base alla temperatura , e ogni scheda la gestisce a modo suo.
Per dire la evga a freddo stava bassa , poi a 60 gradi andava al clock stabilito.
Questa invece a freddo sta più alta di 15 , poi a 60 gradi vs al clock fissato.
devil_mcry
17-11-2021, 16:47
In che senso in oc?
Impostando un clock fisso e un voltaggio fisso a me rimane.
Poi certo varia in base alla temperatura , e ogni scheda la gestisce a modo suo.
Per dire la evga a freddo stava bassa , poi a 60 gradi andava al clock stabilito.
Questa invece a freddo sta più alta di 15 , poi a 60 gradi vs al clock fissato.
io ho alzato di 125mhz il boost non lo ho messo fisso perché non ho tutta quella voglia di regolare, volevo solo ottimizzare le prestazioni
in pratica senza gsync il boost medio viaggia intorno ai 1900mhz ora, durante il superposition
se attivo il gsync rimane più basso, intorno ai 1840mhz o giù di li
non capisco però perché, a meno che il gsync non attivi della logica sul silicio che mi fa tagliare prima le frequenze non ha senso
peppewan
17-11-2021, 22:39
Ragazzi ho provato ad usare questo NIS ma mica ho capito bene come fare!!
Io faccio questo:
Pannello di controllo Nvidia ed metto su attivato l'opzione di ridimensionamento immagine, mettendo lo slider su 100%
poi faccio partire il gioco (ho provato ad esempio il nuovo battlefield che mi faceva spuntare la scritta NIS verde, quindi significa che funzionano sia l'upscale che lo sharpening)
e nel gioco diminuisco la risoluzione...ecco ma la devo diminuire secondo le schede del sito Nvidia oppure la posso diminure di quanto voglio??
Ho fatto tutti i passaggi?
ray_hunter
18-11-2021, 07:09
Se a qualcuno interessa c'è questa comparativa interessante su DSOGaming
https://www.dsogaming.com/pc-performance-analyses/hellblade-senuas-sacrifice-ray-tracing-nvidia-dlss-amd-fsr-benchmarks/
Chi ha scritto l'articolo non ha notato difetti con DLSS, ma a me sembra invece che con esso le riflessioni RT siano pesantemente blurrate, come se non fossero upscalate... Sono l'unico?
Anche alcune texture mi sembrano leggermente slavate.
Le corde e i rami sottili invece vengono ricostruiti meglio che a nativa!!!
devil_mcry
18-11-2021, 08:04
Se a qualcuno interessa c'è questa comparativa interessante su DSOGaming
https://www.dsogaming.com/pc-performance-analyses/hellblade-senuas-sacrifice-ray-tracing-nvidia-dlss-amd-fsr-benchmarks/
Chi ha scritto l'articolo non ha notato difetti con DLSS, ma a me sembra invece che con esso le riflessioni RT siano pesantemente blurrate, come se non fossero upscalate... Sono l'unico?
Anche alcune texture mi sembrano leggermente slavate.
Le corde e i rami sottili invece vengono ricostruiti meglio che a nativa!!!
Lo sto installando, guardo se vedo qualcosa di strano
MA alla fine che senso ha questo upscaling. Secondo me meglio utilizzare il titolo per quello che è alla risoluzione del monitor, e al massimo utilizzare il RT e DLSS....o solo DLSS se disponibile
MA alla fine che senso ha questo upscaling. Secondo me meglio utilizzare il titolo per quello che è alla risoluzione del monitor, e al massimo utilizzare il RT e DLSS....o solo DLSS se disponibile
Probabilmente perche' questo upscaling e' utilizzabile da tutte le schede nvidia, mentre il dlss solo per le rtx.
devil_mcry
18-11-2021, 08:52
MA alla fine che senso ha questo upscaling. Secondo me meglio utilizzare il titolo per quello che è alla risoluzione del monitor, e al massimo utilizzare il RT e DLSS....o solo DLSS se disponibile
Penso serva a quello, fai l'upscaling alla risoluzione nativa quando il DLSS non c'è
Cmq ho lanciato hellblade in full screen, a 1440p il menu in basso ha un glitch nero, ma in game non ci sono problemi, in 4k non lo fa
E' qualcosa di mio?
Edit lo fa solo se l'HDR e il Vsync sono attivi e solo se non è a risoluzione nativa del desktop. Credo sia qualcosa della mia tv perché lo screenshot è pulito. Edit riavviando si è risolto boooo
TigerTank
18-11-2021, 10:48
MA alla fine che senso ha questo upscaling. Secondo me meglio utilizzare il titolo per quello che è alla risoluzione del monitor, e al massimo utilizzare il RT e DLSS....o solo DLSS se disponibile
https://www.hwupgrade.it/forum/showpost.php?p=47640970&postcount=17884
Tu in un gioco che non ha DLSS setti una delle risoluzione aggiunte dalla feature e l'algoritmo ti da l'upscaling alla risoluzione nativa. Poi tu puoi regolare a piacere la nitidezza, da pannello nvidia o direttamente in game se usi il geforce experience.
Esempio: se io che ho un 21:9 lo attivo, nel pannello nvidia mi aggiunge queste risoluzioni.
http://i.imgur.com/pBQynRkl.jpg (https://imgur.com/pBQynRk)
Comunque per usufruire della sola funzione di nitidezza basta attivare il ridimensionamento ma lasciare la risoluzione nativa e stop. Io comunque continuo a preferire il lumasharpen del reshade.
Nel prossimo futuro dovrebbe anche uscire il reshade 5. Dallo sviluppatore: "Next one will be 5.0 with VR and add-on support, which is taking its time to develop."
sertopica
18-11-2021, 11:17
Cyberpunk e' il primo gioco ad avere implementata una funzione di update automatico del DLSS, il problema e' questo avviene tramite Geforce Experience, che io aborro: https://www.reddit.com/r/nvidia/comments/qv8j0c/megathread_from_nvidia_dlss_23_to_nvidia_image/hl2z083/?utm_source=share&utm_medium=web2x&context=3
Thunder-74
18-11-2021, 11:50
Cyberpunk e' il primo gioco ad avere implementata una funzione di update automatico del DLSS, il problema e' questo avviene tramite Geforce Experience, che io aborro: https://www.reddit.com/r/nvidia/comments/qv8j0c/megathread_from_nvidia_dlss_23_to_nvidia_image/hl2z083/?utm_source=share&utm_medium=web2x&context=3
se si mettono ad aggiornare i giochi via Gf Experience, siamo a posto :doh:
sertopica
18-11-2021, 11:52
se si mettono ad aggiornare i giochi via Gf Experience, siamo a posto :doh:
Infatti. Comunque ieri ho provato ad installare GFE, l'intuito mi aveva consigliato bene, ma non ha funzionato. La versione del DLSS e' rimasta la stessa. :asd:
E ribadisco il nuovo sharpening che hanno implementato col NIS fa pieta'. Il vecchio dava risultati migliori.
Cyberpunk e' il primo gioco ad avere implementata una funzione di update automatico del DLSS, il problema e' questo avviene tramite Geforce Experience, che io aborro: https://www.reddit.com/r/nvidia/comments/qv8j0c/megathread_from_nvidia_dlss_23_to_nvidia_image/hl2z083/?utm_source=share&utm_medium=web2x&context=3
Ecco, questa e' una cosa che proprio non mi piace... C'e' il modo di scaricare il file a mano?
TigerTank
18-11-2021, 12:41
Ecco, questa e' una cosa che proprio non mi piace... C'e' il modo di scaricare il file a mano?
Prova con la 2.3.2 dal database di TPU. O anche la 2.3.4.
Comunque davvero, odioso il fatto che cerchino di creare dipendenze dall'experience.
sertopica
18-11-2021, 12:56
Prova con la 2.3.2 dal database di TPU. O anche la 2.3.4.
Comunque davvero, odioso il fatto che cerchino di creare dipendenze dall'experience.
Io l'ho provata e causa molto ghosting in determinate condizioni. L'immagine e' anche meno nitida. Consiglio per ora la White Collie 2.
TigerTank
18-11-2021, 12:58
Io l'ho provata e causa molto ghosting in determinate condizioni. L'immagine e' anche meno nitida. Consiglio per ora la White Collie 2.
Grazie...o a questo punto mettere l'experience giusto per vedere cosa ne esce a livello di dll.
(Guarda nel thread di win11 cosa ti ho risposto :) )
sertopica
18-11-2021, 13:04
Grazie...o a questo punto mettere l'experience giusto per vedere cosa ne esce a livello di dll.
(Guarda nel thread di win11 cosa ti ho risposto :) )
A me non e' uscito niente. :D
Non ha aggiornato nulla. Semplicemente non ha funzionato.
Ok vado a vedere grazie. :)
fraussantin
18-11-2021, 13:26
Cyberpunk e' il primo gioco ad avere implementata una funzione di update automatico del DLSS, il problema e' questo avviene tramite Geforce Experience, che io aborro: https://www.reddit.com/r/nvidia/comments/qv8j0c/megathread_from_nvidia_dlss_23_to_nvidia_image/hl2z083/?utm_source=share&utm_medium=web2x&context=3Temo che , anche grazie a tutti quelli che infamano Nvidia sui vari social per il pannello obsoleto , quando verrà aggiornato sarà unificato sicuramente al gfe ...
E imho fa ancora più schifo del pannello attuale che per quanto sia vecchio e lento per me rimane ottimo per come é strutturato.
Spero almeno che non serva attivare l'overlay perché cozza con in ds4 usato in bt
TigerTank
18-11-2021, 13:49
A me non e' uscito niente. :D
Non ha aggiornato nulla. Semplicemente non ha funzionato.
Ok vado a vedere grazie. :)
Ecco...:asd:
Ho visto poi il tuo post in risposta a Thunder...
Quindi il meglio resta provarle prendendole dal database di TPU.
Temo che , anche grazie a tutti quelli che infamano Nvidia sui vari social per il pannello obsoleto , quando verrà aggiornato sarà unificato sicuramente al gfe ...
E imho fa ancora più schifo del pannello attuale che per quanto sia vecchio e lento per me rimane ottimo per come é strutturato.
Spero almeno che non serva attivare l'overlay perché cozza con in ds4 usato in bt
Io non è che "infamo" il pannello Nvidia ma mi viene un pò il nervoso perchè è ormai stutteroso e si porta ancora appresso gli errori di traduzione :D
Potrebbero dare una rinfrescata...tipo anche il poter ingrandire la lista delle opzioni grafiche di un profilo invece che dover ancora scrollare in verticale ed orizzontale su finestrella fissa viste ormai le risoluzioni utilizzate. :asd:
http://i.imgur.com/LvRn2sOl.jpg (https://imgur.com/LvRn2sO)
Già che ormai siamo passati ai drivers DCH + pannello come app Microsoft.
ray_hunter
18-11-2021, 14:17
Temo che , anche grazie a tutti quelli che infamano Nvidia sui vari social per il pannello obsoleto , quando verrà aggiornato sarà unificato sicuramente al gfe ...
E imho fa ancora più schifo del pannello attuale che per quanto sia vecchio e lento per me rimane ottimo per come é strutturato.
Spero almeno che non serva attivare l'overlay perché cozza con in ds4 usato in bt
Be ma anche no... Dire che il pannello Nvidia sia ben strutturato proprio no...
Non si salva niente di quel pannello. Concordo sul fatto che quello di GFE non sia il massimo, anzi, però nulla è peggio del pannello Nvidia.
Ormai è vintage sia a livello estetico che all'uso pratico.
Se hai provato quello di AMD siamo su di un altro pianeta!!!
devil_mcry
18-11-2021, 14:19
Io onestamente GE lo uso abbastanza, perché non vi piace? Per quanto riguarda il pannello, sarò pigro ma mi trovo bene ma ammetto che è un po' demodé
fraussantin
18-11-2021, 14:27
Be ma anche no... Dire che il pannello Nvidia sia ben strutturato proprio no...
Non si salva niente di quel pannello. Concordo sul fatto che quello di GFE non sia il massimo, anzi, però nulla è peggio del pannello Nvidia.
Ormai è vintage sia a livello estetico che all'uso pratico.
Se hai provato quello di AMD siamo su di un altro pianeta!!!Il pannello ti offre in un unica pagina tutto quel che serve.
Ben diviso in sezioni.
Sarò vecchio , ma a me quelle interfacce tutte arzigogolate dove devi clikkare 8 volte per fare una cosa non le sopporto.
Esempio classico il G hub di Logitech che é una zozzeria a confronto del vecchio driver.
Poi sul fatto che Il pannello sia lento e laggoso si su quello dovrebbero lavorarci .
PS il gfe non capisco proprio come sia strutturato , 3 paginate piene di inutilità per un solo tasto che attiva l'overlay e poi fai tutto da lì con menù e ormi pieni di sottomenu non intuitivi e pieno di funzioni non disattivabili. ( Una di questa é il controllo forzato del ds4)
PPS quello AMD lo uso a lavoro , e non mi piace , hanno messo la grafica davanti alla praticità , come fanno tutti ormai su tutto.
Ecco...:asd:
Ho visto poi il tuo post in risposta a Thunder...
Quindi il meglio resta provarle prendendole dal database di TPU.
Io non è che "infamo" il pannello Nvidia ma mi viene un pò il nervoso perchè è ormai stutteroso e si porta ancora appresso gli errori di traduzione :D
Potrebbero dare una rinfrescata...tipo anche il poter ingrandire la lista delle opzioni grafiche di un profilo invece che dover ancora scrollare in verticale ed orizzontale su finestrella fissa viste ormai le risoluzioni utilizzate. :asd:
http://i.imgur.com/LvRn2sOl.jpg (https://imgur.com/LvRn2sO)
Già che ormai siamo passati ai drivers DCH + pannello come app Microsoft.
ehehe su quello si potrebbe fare in 3 secondi permettendo di cambiare font . Robe che si facevano su Windows 95
Cmq io le vedo più grosse in 2k . DPI 100% su Windows 10
[K]iT[o]
18-11-2021, 14:35
Se hai provato quello di AMD siamo su di un altro pianeta!!!
Preferisco di gran lunga quello nVidia: sintetico, leggero e funzionante. Quello AMD è al contrario pesante, dispersivo, e spesso non funziona nemmeno :D
Geforce Experience non lo installo proprio, è inutile e controproducente per il mio uso tipico.
iT[o];47642621']Preferisco di gran lunga quello nVidia: sintetico, leggero e funzionante. Quello AMD è al contrario pesante, dispersivo, e spesso non funziona nemmeno :D
Geforce Experience non lo installo proprio, è inutile e controproducente per il mio uso tipico.
Uhm... è molto più reattivo quello AMD, cambi cose al volo senza impuntamenti. (ho entrambi i marchi, nVidia su laptop, quindi sono aggiornato su entrambe). Si apre istantaneamente, e ha sì la pecca di avere alcune cose di troppo (es. disabilito subito il browser). Sull'organizzazione delle opzioni può piacere o meno, per me il migliore rimane il vecchio pannello AMD, il primo col formato "moderno" che trovavo davvero intuitivo.
Concordo sull'Experience, ma come dicono sopra probabilmente nVidia ha intenzione di forzarlo prima o poi...
sertopica
18-11-2021, 15:09
Io onestamente GE lo uso abbastanza, perché non vi piace? Per quanto riguarda il pannello, sarò pigro ma mi trovo bene ma ammetto che è un po' demodé
A parte la cattura video e ansel non ci vedo alcuna utilita'. Per il resto serve solo a fare data collection.
fraussantin
18-11-2021, 15:20
A parte la cattura video e ansel non ci vedo alcuna utilita'. Per il resto serve solo a fare data collection.Ansel si può avere anche senza.
É freestyle quello esclusivo , ma ormai uso reshade
sertopica
18-11-2021, 15:34
Ansel si può avere anche senza.
É freestyle quello esclusivo , ma ormai uso reshade
Si infatti, ma deve essere supportato dal gioco. Freestyle puo' pure andare a farsi benedire per quanto mi riguarda, i filtri si ciucciano anche fps. :D
fraussantin
18-11-2021, 17:22
Si infatti, ma deve essere supportato dal gioco. Freestyle puo' pure andare a farsi benedire per quanto mi riguarda, i filtri si ciucciano anche fps. :DAnsel funziona anche nei giochi non supportati? Son rimasto indietro
ray_hunter
18-11-2021, 17:31
Il pannello ti offre in un unica pagina tutto quel che serve.
Ben diviso in sezioni.
Sarò vecchio , ma a me quelle interfacce tutte arzigogolate dove devi clikkare 8 volte per fare una cosa non le sopporto.
Esempio classico il G hub di Logitech che é una zozzeria a confronto del vecchio driver.
Poi sul fatto che Il pannello sia lento e laggoso si su quello dovrebbero lavorarci .
PS il gfe non capisco proprio come sia strutturato , 3 paginate piene di inutilità per un solo tasto che attiva l'overlay e poi fai tutto da lì con menù e ormi pieni di sottomenu non intuitivi e pieno di funzioni non disattivabili. ( Una di questa é il controllo forzato del ds4)
PPS quello AMD lo uso a lavoro , e non mi piace , hanno messo la grafica davanti alla praticità , come fanno tutti ormai su tutto.
ehehe su quello si potrebbe fare in 3 secondi permettendo di cambiare font . Robe che si facevano su Windows 95
Cmq io le vedo più grosse in 2k . DPI 100% su Windows 10
iT[o];47642621']Preferisco di gran lunga quello nVidia: sintetico, leggero e funzionante. Quello AMD è al contrario pesante, dispersivo, e spesso non funziona nemmeno :D
Geforce Experience non lo installo proprio, è inutile e controproducente per il mio uso tipico.
Va ben che i gusti son gusti ma non condivido le vostre osservazioni.
Il pannello di nvidia è scomodo, le funzioni ammassate e se non conosci le posizioni a memoria ci bestemmi.
Le descrizioni fanno stra-schifo. Non è mai chiaro esattamente cosa e come si usa e voi vi trovate bene solo perché lo usate da tanti anni.
Quello AMD è organizzato, intuitivo, ha mille mila robe in più ed è pure bello da vedere.
Lasciate stare la scheda che ho ora. Ho comprato questa solo perché non ho trovato la 3080 e ho avuto alcune schede di AMD ma tante di Nvidia e so di cosa parlo!
TigerTank
18-11-2021, 17:35
ehehe su quello si potrebbe fare in 3 secondi permettendo di cambiare font . Robe che si facevano su Windows 95
Cmq io le vedo più grosse in 2k . DPI 100% su Windows 10
Nello screen è al 100%.
Sì ingrandendo l'opzione da windows si ingrandisce anche il pannello Nvidia(riavviandolo) ma poi hai tutto il resto enorme e non mi piace :asd:
Ci vorrebbe un nuovo layout "vettoriale" :D
Ma chiaro che c'è anche la volontà di spingere più gente possibile ad usare l'experience.
https://www.hwupgrade.it/forum/showpost.php?p=47640970&postcount=17884
Tu in un gioco che non ha DLSS setti una delle risoluzione aggiunte dalla feature e l'algoritmo ti da l'upscaling alla risoluzione nativa. Poi tu puoi regolare a piacere la nitidezza, da pannello nvidia o direttamente in game se usi il geforce experience.
Esempio: se io che ho un 21:9 lo attivo, nel pannello nvidia mi aggiunge queste risoluzioni.
http://i.imgur.com/pBQynRkl.jpg (https://imgur.com/pBQynRk)
Comunque per usufruire della sola funzione di nitidezza basta attivare il ridimensionamento ma lasciare la risoluzione nativa e stop. Io comunque continuo a preferire il lumasharpen del reshade.
Nel prossimo futuro dovrebbe anche uscire il reshade 5. Dallo sviluppatore: "Next one will be 5.0 with VR and add-on support, which is taking its time to develop."
E' la stessa tecnica utilizzata da Sapphire, e quando avevo la Radeon Nitro rx5700xt effettivamente aveva senso perchè mi permetteva di strappare qualche fps in più ad alte risoluzioni, era il trixx boost. Tu selezionavi la percentuale di risoluzione ad esempio in 4k e lui ti ridimensionava un 4k. Probabilmente è vero come dite, cioè che per schede Nvidia meno potenti può essere molto utile. Io ragionavo sulla base della mia scheda.
devil_mcry
18-11-2021, 18:13
A parte la cattura video e ansel non ci vedo alcuna utilita'. Per il resto serve solo a fare data collection.
Hai tutte le funzionalità di cattura non solo quelle e la gestione dei profili dei giochi se non vuoi stare li a smanettare
Io lo trovo comodo, anche solo per la gestione banale degli update
davide155
18-11-2021, 18:38
Nuovo 12900k montato....come vi sembra di punteggio?
https://i.ibb.co/Hgz1XC9/Senza-titolo.jpg (https://ibb.co/5c8t2kJ)
Ps: da quando son passato a win11 non so come mai non mi faccia vedere i risultati online nonostante l'avessi comprato su steam :mbe:
MikkiClock
18-11-2021, 21:25
Nuovo 12900k montato....come vi sembra di punteggio?
https://i.ibb.co/Hgz1XC9/Senza-titolo.jpg (https://ibb.co/5c8t2kJ)
Ps: da quando son passato a win11 non so come mai non mi faccia vedere i risultati online nonostante l'avessi comprato su steam :mbe:
Tralasciando il grafic score dato che io ho una RTX 3070, mi pare appena meglio della mia build Ryzen a stock e Win10 21H1 sul grafic score faccio 49,86 FPS. Non mi pare una rivoluzione. Quanto fai a Cinebench R20?
https://i.ibb.co/d7Lc59c/3DMark.png (https://ibb.co/b723Kh3)
davide155
18-11-2021, 22:02
Tralasciando il grafic score dato che io ho una RTX 3070, mi pare appena meglio della mia build Ryzen a stock e Win10 21H1 sul grafic score faccio 49,86 FPS. Non mi pare una rivoluzione. Quanto fai a Cinebench R20?
https://i.ibb.co/d7Lc59c/3DMark.png (https://ibb.co/b723Kh3)
Beh considerando che hai il top dei processori ryzen con 32 thread non mi sembra affatto male due mila punti in più sul cpu score.
Cinebench r20 10408 in multi
Cinebench r23 26536 in multi
Beh considerando che hai il top dei processori ryzen con 32 thread non mi sembra affatto male due mila punti in più sul cpu score.
Cinebench r20 10408 in multi
Cinebench r23 26536 in multi
Ha il 5900X, 12 core 24 thread :D
davide155
18-11-2021, 23:24
Ha il 5900X, 12 core 24 thread :D
Hai ragione, avevo letto un 5 di troppo :D
MikkiClock
18-11-2021, 23:41
Beh considerando che hai il top dei processori ryzen con 32 thread non mi sembra affatto male due mila punti in più sul cpu score.
Cinebench r20 10408 in multi
Cinebench r23 26536 in multi
Ha il 5900X, 12 core 24 thread :D
Su Cinebench R20 va meglio del mio considerato che con PBO attivato e tirato ho fatto anche 8900 in multi ma ci sono 4 core in più senza contare l'overclock, a che clock sei?
davide155
19-11-2021, 00:08
Su Cinebench R20 va meglio del mio considerato che con PBO attivato e tirato ho fatto anche 8900 in multi ma ci sono 4 core in più senza contare l'overclock, a che clock sei?5100 allcore sui p-core e 4000 allcore su gli e-core
Nuovo 12900k montato....come vi sembra di punteggio?
Ps: da quando son passato a win11 non so come mai non mi faccia vedere i risultati online nonostante l'avessi comprato su steam :mbe:
Mi sembra ottimo, anche come video fai quasi come la mia 3090.
Io faccio 20250 di video e 11500 di cpu.
Mi sembra ottimo, anche come video fai quasi come la mia 3090.
Io faccio 20250 di video e 11500 di cpu.
ottimo ni...
ha 5,1GHz sui pcore, e l'altro ryzen mi sembrava fosse a default; non mi sembra nemmeno scali così bene in oc.
Ormai nessuna cpu scala bene (bei tempi con il q6600 @3,2ghz), sia chiaro, ma va praticamente poco di più di un 5900x che tra tutto costa quasi la metà (conto ram e quant'altro).
Nessuna polemica, ma sembrano quasi dei beta questi intel 12th e per quanto costano è inaccettabile.
il 13% con oc rispetto un 5900x stock è un dislivello che con oc lo prendi subito
devil_mcry
19-11-2021, 09:15
Se a qualcuno interessa c'è questa comparativa interessante su DSOGaming
https://www.dsogaming.com/pc-performance-analyses/hellblade-senuas-sacrifice-ray-tracing-nvidia-dlss-amd-fsr-benchmarks/
Chi ha scritto l'articolo non ha notato difetti con DLSS, ma a me sembra invece che con esso le riflessioni RT siano pesantemente blurrate, come se non fossero upscalate... Sono l'unico?
Anche alcune texture mi sembrano leggermente slavate.
Le corde e i rami sottili invece vengono ricostruiti meglio che a nativa!!!
Ho provato un po' il gioco è difficile darti un parere perchè tra le allucinazioni che vede lei e il resto non capisco cosa sia voluto e cosa no
Tipo in photo mode ad un certo punto ho visto una luce che era a quadrettoni oltre quelle tipiche a linee quando giochi però in generale mi sembra ok, per caso hai uno screen? Il mio save è abbastanza avanti ma c'è acqua e fuoco quindi qualche riflesso lo dovrebbe fare
ottimo ni...
ha 5,1GHz sui pcore, e l'altro ryzen mi sembrava fosse a default; non mi sembra nemmeno scali così bene in oc.
Ormai nessuna cpu scala bene (bei tempi con il q6600 @3,2ghz), sia chiaro, ma va praticamente poco di più di un 5900x che tra tutto costa quasi la metà (conto ram e quant'altro).
Nessuna polemica, ma sembrano quasi dei beta questi intel 12th e per quanto costano è inaccettabile.
il 13% con oc rispetto un 5900x stock è un dislivello che con oc lo prendi subito
Vero, ormai in OC si guadagna poco e niente.
Ansel si può avere anche senza.
É freestyle quello esclusivo , ma ormai uso reshade
Ansel va un casino quest'anno :O
https://c.tenor.com/L0WjyEyh8H4AAAAM/zoolander-walkoff.gif
scusate ma dovevo scriverlo :asd:
FrancoBit
19-11-2021, 10:01
Ansel va un casino quest'anno :O
https://c.tenor.com/L0WjyEyh8H4AAAAM/zoolander-walkoff.gif
scusate ma dovevo scriverlo :asd:
Ansel batte anche Zoolander secondo me :oink:
Cutter90
19-11-2021, 10:06
https://i.imgur.com/E7cZ7MK.png
Giusto per completezza io con il 10900kf (5.3ghz) e 3090 ad aria sono messo così
MikkiClock
19-11-2021, 10:40
ottimo ni...
ha 5,1GHz sui pcore, e l'altro ryzen mi sembrava fosse a default; non mi sembra nemmeno scali così bene in oc.
Ormai nessuna cpu scala bene (bei tempi con il q6600 @3,2ghz), sia chiaro, ma va praticamente poco di più di un 5900x che tra tutto costa quasi la metà (conto ram e quant'altro).
Nessuna polemica, ma sembrano quasi dei beta questi intel 12th e per quanto costano è inaccettabile.
il 13% con oc rispetto un 5900x stock è un dislivello che con oc lo prendi subito
Sempre senza polemiche, non trascurerei la gestione del calore ho visto recensioni che parlano di 80C° e passa sotto carico e il consumo TDP 240W che risulta del 70% più elevato di una piattaforma tipo la mia che è sui 140W.
Bene che Intel sia tornata un buon competitor, ce ne dovremmo avantaggiare noi utenti quando finirà questo shortage ma secondo me hanno portato al limite l'architettura e la nanometria di cui dispongono. E fine OT che altrimenti ci cazziano.
Pero'! La mia pny a confronto e' proprio sfigata, devo fare sto cambio bios prima o poi...
sertopica
19-11-2021, 11:03
Per chi fosse interessato alla questione DLSS affrontata ieri:
Normalmente bisogna aspettare che gli sviluppatori aggiornino un gioco tramite patch per avere eventualmente anche il DLSS aggiornato, visto che la DLL si trova nelle cartelle dove il gioco stesso e' installato.
Con i nuovi drivers le versioni aggiornate del DLSS non vengono piu' salvate nella directory del gioco che lo supporta, bensi' in un'altra cartella presente in ProgramData. La DLL (in formato .bin) verra' poi utilizzata dal titolo bypassando quella presente nella cartella originale di gioco. Geforce Experience effettua un check sui giochi installati ed eventualmente aggiorna il DLSS per il gioco salvando il file aggiornato in ProgramData. Per ora solo Cyberpunk supporta questa feature, come gia' detto ieri.
E dunque, visto che non voglio usare i nuovi drivers e soprattutto Geforce Experience -ma li avevo comunque installati e poi disinstallati l'altro ieri-, sono andato in ProgramData e ho trovato le cartelle ed il DLSS per Cyberpunk in formato .bin, l'ho rinominato in nvngx_dlss.dll e poi l'ho schiaffato nella cartella di gioco di Cyberpunk.
Risultato: il tutto funziona senza problemi e devo dire che si vede davvero bene, l'immagine risulta estremamente stabile in movimento, e posso finalmente pensionare il modello White Collie 2 che ho utilizzato finora.
I file si trovano nella seguente cartella (dovete ovviamente aver installato gli ultimi drivers e GFE): C:\ProgramData\NVIDIA\NGX\models\dlss\versions\131844\files
Fonte: ManuelGuzman (software QA e rappresentante nVidia) da Reddit
https://www.reddit.com/r/nvidia/comments/qv8j0c/megathread_from_nvidia_dlss_23_to_nvidia_image/hl86crq/
In particolare si vede qui il percorso: https://nvidia.s3.us-east-1.amazonaws.com/cp2077.png
Nota a margine: la versione DLSS utilizzata per CP e' la 2.3.4 e sembra sia esattamente la stessa DLL utilizzata per Jurassic World 2, almeno confrontando le dimensioni... Pero' con la DLL di Jurassic World non avevo la stessa qualita' che ho con quest'altra.
mikael84
19-11-2021, 11:30
Beh considerando che hai il top dei processori ryzen con 32 thread non mi sembra affatto male due mila punti in più sul cpu score.
Cinebench r20 10408 in multi
Cinebench r23 26536 in multi
Il 3dmark non scala benissimo con tanti thread.
Thunder-74
19-11-2021, 13:04
Per chi fosse interessato alla questione DLSS affrontata ieri:
Normalmente bisogna aspettare che gli sviluppatori aggiornino un gioco tramite patch per avere eventualmente anche il DLSS aggiornato, visto che la DLL si trova nelle cartelle dove il gioco stesso e' installato.
Con i nuovi drivers le versioni aggiornate del DLSS non vengono piu' salvate nella directory del gioco che lo supporta, bensi' in un'altra cartella presente in ProgramData. La DLL (in formato .bin) verra' poi utilizzata dal titolo bypassando quella presente nella cartella originale di gioco. Geforce Experience effettua un check sui giochi installati ed eventualmente aggiorna il DLSS per il gioco salvando il file aggiornato in ProgramData. Per ora solo Cyberpunk supporta questa feature, come gia' detto ieri.
E dunque, visto che non voglio usare i nuovi drivers e soprattutto Geforce Experience -ma li avevo comunque installati e poi disinstallati l'altro ieri-, sono andato in ProgramData e ho trovato le cartelle ed il DLSS per Cyberpunk in formato .bin, l'ho rinominato in nvngx_dlss.dll e poi l'ho schiaffato nella cartella di gioco di Cyberpunk.
Risultato: il tutto funziona senza problemi e devo dire che si vede davvero bene, l'immagine risulta estremamente stabile in movimento, e posso finalmente pensionare il modello White Collie 2 che ho utilizzato finora.
I file si trovano nella seguente cartella (dovete ovviamente aver installato gli ultimi drivers e GFE): C:\ProgramData\NVIDIA\NGX\models\dlss\versions\131844\files
Fonte: ManuelGuzman (software QA e rappresentante nVidia) da Reddit
https://www.reddit.com/r/nvidia/comments/qv8j0c/megathread_from_nvidia_dlss_23_to_nvidia_image/hl86crq/
In particolare si vede qui il percorso: https://nvidia.s3.us-east-1.amazonaws.com/cp2077.png
Nota a margine: la versione DLSS utilizzata per CP e' la 2.3.4 e sembra sia esattamente la stessa DLL utilizzata per Jurassic World 2, almeno confrontando le dimensioni... Pero' con la DLL di Jurassic World non avevo la stessa qualita' che ho con quest'altra.
Grazie per questa precisazione , post molto interessante :mano:
TigerTank
19-11-2021, 13:11
Per chi fosse interessato alla questione DLSS affrontata ieri:
Normalmente bisogna aspettare che gli sviluppatori aggiornino un gioco tramite patch per avere eventualmente anche il DLSS aggiornato, visto che la DLL si trova nelle cartelle dove il gioco stesso e' installato.
Con i nuovi drivers le versioni aggiornate del DLSS non vengono piu' salvate nella directory del gioco che lo supporta, bensi' in un'altra cartella presente in ProgramData. La DLL (in formato .bin) verra' poi utilizzata dal titolo bypassando quella presente nella cartella originale di gioco. Geforce Experience effettua un check sui giochi installati ed eventualmente aggiorna il DLSS per il gioco salvando il file aggiornato in ProgramData. Per ora solo Cyberpunk supporta questa feature, come gia' detto ieri.
E dunque, visto che non voglio usare i nuovi drivers e soprattutto Geforce Experience -ma li avevo comunque installati e poi disinstallati l'altro ieri-, sono andato in ProgramData e ho trovato le cartelle ed il DLSS per Cyberpunk in formato .bin, l'ho rinominato in nvngx_dlss.dll e poi l'ho schiaffato nella cartella di gioco di Cyberpunk.
Risultato: il tutto funziona senza problemi e devo dire che si vede davvero bene, l'immagine risulta estremamente stabile in movimento, e posso finalmente pensionare il modello White Collie 2 che ho utilizzato finora.
I file si trovano nella seguente cartella (dovete ovviamente aver installato gli ultimi drivers e GFE): C:\ProgramData\NVIDIA\NGX\models\dlss\versions\131844\files
Fonte: ManuelGuzman (software QA e rappresentante nVidia) da Reddit
https://www.reddit.com/r/nvidia/comments/qv8j0c/megathread_from_nvidia_dlss_23_to_nvidia_image/hl86crq/
In particolare si vede qui il percorso: https://nvidia.s3.us-east-1.amazonaws.com/cp2077.png
Nota a margine: la versione DLSS utilizzata per CP e' la 2.3.4 e sembra sia esattamente la stessa DLL utilizzata per Jurassic World 2, almeno confrontando le dimensioni... Pero' con la DLL di Jurassic World non avevo la stessa qualita' che ho con quest'altra.
Grazie :)
Dunque alla fine mi sa che converrà installare l'experience anche se controvoglia, perlomeno per questa cosa del DLSS...o altrimenti la cosa manualmente diverrebbe frustrante per ogni gioco.
E perchè non si sa se data una versione di DLL, sia effettivamente la stessa per tuti i giochi o se la versione riguardi il DLSS ma le DLL dei singoli giochi vengano customizzate ad hoc.
Grazie per questa precisazione , post molto interessante :mano:
Vero, infatti ho salvato il post come nota in un file di testo nella cartella in cui ho "collezionato" le varie dll scaricate da TPU :D
fraussantin
19-11-2021, 13:19
Per chi fosse interessato alla questione DLSS affrontata ieri:
Normalmente bisogna aspettare che gli sviluppatori aggiornino un gioco tramite patch per avere eventualmente anche il DLSS aggiornato, visto che la DLL si trova nelle cartelle dove il gioco stesso e' installato.
Con i nuovi drivers le versioni aggiornate del DLSS non vengono piu' salvate nella directory del gioco che lo supporta, bensi' in un'altra cartella presente in ProgramData. La DLL (in formato .bin) verra' poi utilizzata dal titolo bypassando quella presente nella cartella originale di gioco. Geforce Experience effettua un check sui giochi installati ed eventualmente aggiorna il DLSS per il gioco salvando il file aggiornato in ProgramData. Per ora solo Cyberpunk supporta questa feature, come gia' detto ieri.
E dunque, visto che non voglio usare i nuovi drivers e soprattutto Geforce Experience -ma li avevo comunque installati e poi disinstallati l'altro ieri-, sono andato in ProgramData e ho trovato le cartelle ed il DLSS per Cyberpunk in formato .bin, l'ho rinominato in nvngx_dlss.dll e poi l'ho schiaffato nella cartella di gioco di Cyberpunk.
Risultato: il tutto funziona senza problemi e devo dire che si vede davvero bene, l'immagine risulta estremamente stabile in movimento, e posso finalmente pensionare il modello White Collie 2 che ho utilizzato finora.
I file si trovano nella seguente cartella (dovete ovviamente aver installato gli ultimi drivers e GFE): C:\ProgramData\NVIDIA\NGX\models\dlss\versions\131844\files
Fonte: ManuelGuzman (software QA e rappresentante nVidia) da Reddit
https://www.reddit.com/r/nvidia/comments/qv8j0c/megathread_from_nvidia_dlss_23_to_nvidia_image/hl86crq/
In particolare si vede qui il percorso: https://nvidia.s3.us-east-1.amazonaws.com/cp2077.png
Nota a margine: la versione DLSS utilizzata per CP e' la 2.3.4 e sembra sia esattamente la stessa DLL utilizzata per Jurassic World 2, almeno confrontando le dimensioni... Pero' con la DLL di Jurassic World non avevo la stessa qualita' che ho con quest'altra.Ottimo grazie, non ho capito una cosa cmq
Gfe lo autonomamente O dobbiamo farlo a mano noi ? È legato alla overlay?
E soprattutto se gfe non aggiorna per vari motivi in caso di update del gioco va cmq a bypassare quello del gioco e usa il suo anche se obsoleto?
È un gran casino mi sa hanno adottato il peggiore dei modi possibili per farlo.
Potevano mettere un flag nel driver come X tutte le opzioni grafiche * fai decidere il gioco * sempre off *usa personalizzato ?
sertopica
19-11-2021, 13:20
No problem, siamo qui anche per questo. :D
Alla fine temo che dovro' installarmelo anche io GFE, tanto, come diceva anche fraussantin ieri, ce lo propineranno a forza. Ah, per far funzionare questo tool di autoaggiornamento bisogna anche tenere la telemetria attivata, quindi credo che se fate la cura dimagrante con nvslimmer sta roba non funzionera'. :D
Ottimo grazie, non ho capito una cosa cmq
Gfe lo autonomamente O dobbiamo farlo a mano noi ? È legato alla overlay?
E soprattutto se gfe non aggiorna per vari motivi in caso di update del gioco va cmq a bypassare quello del gioco e usa il suo anche se obsoleto?
È un gran casino mi sa hanno adottato il peggiore dei modi possibili per farlo.
Potevano mettere un flag nel driver come X tutte le opzioni grafiche * fai decidere il gioco * sempre off *usa personalizzato ?
Il procedimento e' automatico chiaramente, ma io non voglio i nuovi drivers perche' lo sharpening non mi convince fra le altre cose e non ho intenzione di usare NIS, quindi sono tornato ai vecchi ma i nuovi hanno comunque lasciato delle tracce pur disinstallandoli. Quindi sono andato in quella directory e ho trovato la DLL in formato .bin.
Non so cosa possa succedere se GFE non fosse in grado di aggiornare... :boh:
TigerTank
19-11-2021, 13:23
No problem, siamo qui anche per questo. :D
Alla fine temo che dovro' installarmelo anche io GFE, tanto, come diceva anche fraussantin ieri, ce lo propineranno a forza. Ah, per far funzionare questo tool di autoaggiornamento bisogna anche tenere la telemetria attivata, quindi credo che se fate la cura dimagrante con nvslimmer sta roba non funzionera'. :D
Eh già...o nvslimmer/nvcleanstall e sbattimenti manuali (sempre che i file del DLSS nei percorsi dei giochi continueranno a funzionare) o installazione di default di drivers+experience e via.
Thunder-74
19-11-2021, 13:24
Grazie alla segnalazione di Sertopica, posso felicemente informarvi che non serve avere installato Geforce Experience per aggiornare il DLSS in versione file Bin.
difatti ho installato GfE , da qui avviato Cyberpunk e constatato la creazione della cartella "131844". A questo punto l'ho cancellata, chiuso GfE e avviato il gioco da GOG . La cartella si è ricreata , questo perchè probabilmente ci sarà un riconoscimento nei drivers, che come si lancia un titolo interessato al nuovo DLSS, va a scaricare in automatico il file bin necessario. Nella cartella C:\ProgramData\NVIDIA\NGX\models\dlss\versions\ ho trovato varie sottocartelle con relativi file bin, vai a sapere a chi si riferiscono...
sertopica
19-11-2021, 13:30
Ah perfetto buono a sapersi. Se ti spulci i logs in effetti vedi che nvcontainer si connette alla rete anche senza GFE, quindi probabile che questo aggiornamento automatico avvenga tramite il servizio nvcontainer. A me si e' connesso anche oggi pur non avendo piu' i drivers nuovi (ho su i 496.13 al momento).
Gli altri bin dovrebbero riferirsi ad altri giochi, questo potrebbe significare che non solo Cyberpunk supporta questa funzione.
TigerTank
19-11-2021, 13:49
Io invece non ho installato l'experience...ho provato anch'io a lanciare direttamente CP da GOG, poi sono saltato al desktop con ALT+TAB, mi è apparsa la cartella "131844" nel percorso indicato, dentro c'è il file "160_B9DB490.bin".
Sempre con CP attivo sotto, ho aperto process explorer, attivato il pannello inferiore(dal menu "View") in modalità "DLLs" et voilà:
http://i.imgur.com/G5tsazFl.jpg (https://imgur.com/G5tsazF)
Senza aver installato l'experience e con drivers installati in modalità "pulita" (drivers+physx+HDMI audio+USB-C) tramite NVCleanstall. :stordita:
E dunque senza telemetrie attive...
Dunque mi sa che è proprio una cosa intrinseca dei drivers...
devil_mcry
19-11-2021, 13:50
secondo voi su una 3070 mettere le ram a 15ghz è totalmente sicuro? quanto cambia in %?
Percio' il dlss si auto aggiorna anche senza patch dei giochi e senza quello schifo di GfE? Se' e' così e' perfetto!
fraussantin
19-11-2021, 13:56
Io invece non ho installato l'experience...ho provato anch'io a lanciare direttamente CP da GOG, poi sono saltato al desktop con ALT+TAB, mi è apparsa la cartella "131844" nel percorso indicato, dentro c'è il file "160_B9DB490.bin".
Sempre con CP attivo sotto, ho aperto process explorer, attivato il pannello inferiore(dal menu "View") in modalità "DLLs" et voilà:
http://i.imgur.com/G5tsazFl.jpg (https://imgur.com/G5tsazF)
Senza aver installato l'experience e con drivers installati in modalità "pulita" (drivers+physx+HDMI audio+USB-C) tramite NVCleanstall. :stordita:
E dunque senza telemetrie attive...
Dunque mi sa che è proprio una cosa intrinseca dei drivers...Allora è tutto a posto !
Thunder-74
19-11-2021, 13:58
per ora l'abbiamo scampata .... :fagiano:
TigerTank
19-11-2021, 14:00
Percio' il dlss si auto aggiorna anche senza patch dei giochi e senza quello schifo di GfE? Se' e' così e' perfetto!
Allora è tutto a posto !
Però nella cartella del gioco la DLL resta quella vecchia...presumo a questo punto che tale sistema con il file .bin bypassi a monte la .dll nel gioco...o boh...
Io ho buttato lì la cosa, se magari qualcuno vuol testare e capire meglio, ben venga.
P.S. Ci vorrebbe pure una qualche tabella con i codici corrispondenti ai giochi così come CP è appunto "131844". Mi ricorda un pò la classificazione di Steam dove ogni gioco ha un suo codice numerico.
sertopica
19-11-2021, 14:22
Ottimo, siamo a posto allora senza GFE. :asd:
Solo una cosa non mi e' chiara, come fanno i driver a controllare e scaricare nuovi file senza che alcun servizio abbia accesso alla rete? Qualche servizio deve per forza averlo...
fraussantin
19-11-2021, 14:28
Ottimo, siamo a posto allora senza GFE. :asd:
Solo una cosa non mi e' chiara, come fanno i driver a controllare e scaricare nuovi file senza che alcun servizio abbia accesso alla rete? Qualche servizio deve per forza averlo...Oddio in 800 mega qualcosa dentro ci sarà :asd: quanto pesano le DLL del dlss,?
TigerTank
19-11-2021, 14:47
Ottimo, siamo a posto allora senza GFE. :asd:
Solo una cosa non mi e' chiara, come fanno i driver a controllare e scaricare nuovi file senza che alcun servizio abbia accesso alla rete? Qualche servizio deve per forza averlo...
Eh infatti, ci sarebbero un pò di cose da capire, a meno che il tutto sia già integrato negli ultimi drivers e venga richiamato quando si lancia X gioco. Io anche se ripuliti ho i 496.84.
Bisognerebbe provare ad analizzare con Process Explorer altri titoli della lista 2.3:
Baldur’s Gate 3
Bright Memory: Infinite
Crysis 2 Remastered
Crysis 3 Remastered
Cyberpunk 2077
Deathloop
DOOM Eternal
Grand Theft Auto III - Definitive Edition
Grand Theft Auto: San Andreas - Definitive Edition
Grand Theft Auto: Vice City - Definitive Edition
Jurassic World Evolution 2
Marvel's Guardians of the Galaxy
Rise of the Tomb Raider
Shadow of the Tomb Raider
Sword & Fairy 7
sertopica
19-11-2021, 14:47
Oddio in 800 mega qualcosa dentro ci sarà :asd: quanto pesano le DLL del dlss,?
Circa 13 MB l'una, che moltiplicato per una decina di titoli gia' diventa importante come cifra. Altro che 800 MB. :D
Da quello che so io il file viene scaricato la prima volta che si avvia il gioco che supporta l'opzione. Questo e' quello che ha detto Guzman su Reddit. :)
fraussantin
19-11-2021, 14:48
Circa 13 MB l'una, che moltiplicato per una decina di titoli gia' diventa importante come cifra. Altro che 800 MB. :D
Da quello che so io il file viene scaricato la prima volta che si avvia il gioco che supporta l'opzione.Spe ma non è il solito per tutti?( Fino ad ieri si faceva lo swap) Non ci sto capendo niente
sertopica
19-11-2021, 14:51
Spe ma non è il solito per tutti?( Fino ad ieri si faceva lo swap) Non ci sto capendo niente
Non ne ho idea. Come suggerito da TigerTank, toccherebbe vedere che succede con un altro titolo e confrontare i file per vedere se sono identici. Lo swap lo facevi un po' a cazz di cane sperando desse risultati soddisfacenti, ma le ottimizzazioni specifiche per questo o quel titolo poi non sono presenti, a meno che naturalmente tu non usi quella versione con il gioco che l'ha inclusa per la prima volta. Almeno io l'ho capita cosi', ora non so se hanno una versione unica per tutti.
TigerTank
19-11-2021, 15:03
Doom Eternal ad esempio mi si è aggiornato sul client Bethesda e ha il file nvngx_dlss.dll(in questo caso nella cartella principale del gioco) direttamente aggiornato alla 2.3.0(13,7MB).
In tal caso process explorer rileva la dll nel percorso del gioco ma non dà alcuna correlazione con il percorso "ProgramData" del caso di Cyberpunk.
davide155
19-11-2021, 18:04
Sempre senza polemiche, non trascurerei la gestione del calore ho visto recensioni che parlano di 80C° e passa sotto carico e il consumo TDP 240W che risulta del 70% più elevato di una piattaforma tipo la mia che è sui 140W.
Bene che Intel sia tornata un buon competitor, ce ne dovremmo avantaggiare noi utenti quando finirà questo shortage ma secondo me hanno portato al limite l'architettura e la nanometria di cui dispongono. E fine OT che altrimenti ci cazziano.
Senza polemica, ci mancherebbe, siamo qui per condividere la stessa passione, ed i ryzen9 sono sempre dei processori superlativi.
Comunque conta che rispetto al 7820x ho guadagnato sia in consumi che in calore. Raddoppiando la capacità di calcolo però.
La storia del 240w io li raggiungo in overclock a 54-54-54-51-51-51-51-51 e 39-39-39-39-39-40-40-40 sotto stress in cinebench, altrimenti a default non supera i 215w.
Ma in gioco (cyberpunk 50-60% di usura) non supera i 140w rilevati da hwinfo. Che alla fine del mese se proprio vogliamo esser pignoli sono 2,5€ di corrente di differenza rispetto ad un 5900x (preso in esempio e facendo un conteggio a cazzotto).
Ma soprattutto ho notato un salto enorme per quanto riguarda i frame minimi.
Adesso la 3080 si vede che lavora meglio, a pieno regime senza nessun calo di frame. In cyberpunk non si scende sotto i 60fp con tutto a stecca in 2k.
Per il calore non mi fa paura nulla grazie al custom loop ed una WS come radiatore, infatti sotto oc in cinebench non supera i 70gradi il cuore.
Il 3dmark non scala benissimo con tanti thread.
No infatti il mio test non era tanto riferito al cpu test quanto al graphic score.
Tenendo sott'occhio i core sotto quel test ho notato che non tutti vanno al massimo.
Ancora sicuramente hanno da lavorare in win11 sulla gestione dei pcore ed ecore.
Eh infatti, ci sarebbero un pò di cose da capire, a meno che il tutto sia già integrato negli ultimi drivers e venga richiamato quando si lancia X gioco. Io anche se ripuliti ho i 496.84.
Bisognerebbe provare ad analizzare con Process Explorer altri titoli della lista 2.3:
Baldur’s Gate 3
Bright Memory: Infinite
Crysis 2 Remastered
Crysis 3 Remastered
Cyberpunk 2077
Deathloop
DOOM Eternal
Grand Theft Auto III - Definitive Edition
Grand Theft Auto: San Andreas - Definitive Edition
Grand Theft Auto: Vice City - Definitive Edition
Jurassic World Evolution 2
Marvel's Guardians of the Galaxy
Rise of the Tomb Raider
Shadow of the Tomb Raider
Sword & Fairy 7
Io ho installato la patch su rise of tomb Raider, ma non compare alcuna opzione DLLS
MikkiClock
19-11-2021, 18:18
Senza polemica, ci mancherebbe, siamo qui per condividere la stessa passione, ed i ryzen9 sono sempre dei processori superlativi.
Comunque conta che rispetto al 7820x ho guadagnato sia in consumi che in calore. Raddoppiando la capacità di calcolo però.
La storia del 240w io li raggiungo in overclock a 54-54-54-51-51-51-51-51 e 39-39-39-39-39-40-40-40 sotto stress in cinebench, altrimenti a default non supera i 215w.
Ma in gioco (cyberpunk 50-60% di usura) non supera i 140w rilevati da hwinfo. Che alla fine del mese se proprio vogliamo esser pignoli sono 2,5€ di corrente di differenza rispetto ad un 5900x (preso in esempio e facendo un conteggio a cazzotto).
Ma soprattutto ho notato un salto enorme per quanto riguarda i frame minimi.
Adesso la 3080 si vede che lavora meglio, a pieno regime senza nessun calo di frame. In cyberpunk non si scende sotto i 60fp con tutto a stecca in 2k.
Per il calore non mi fa paura nulla grazie al custom loop ed una WS come radiatore, infatti sotto oc in cinebench non supera i 70gradi il cuore.
No infatti il mio test non era tanto riferito al cpu test quanto al graphic score.
Tenendo sott'occhio i core sotto quel test ho notato che non tutti vanno al massimo.
Ancora sicuramente hanno da lavorare in win11 sulla gestione dei pcore ed ecore.
Sul fatto che Intel abbia fatto un buon lavoro con quello che ha a disposizione come nanometria non si discute. :D
TigerTank
19-11-2021, 18:46
Io ho installato la patch su rise of tomb Raider, ma non compare alcuna opzione DLLS
Devi mettere la patch beta 1013 o in caso di problemi la 813. E quindi avere l'opzione nelle impostazioni video.
E' scritto sulla pagina di Steam dedicata al gioco.
Di più non so non avendolo installato da un pezzo.
mikael84
19-11-2021, 18:53
No infatti il mio test non era tanto riferito al cpu test quanto al graphic score.
Tenendo sott'occhio i core sotto quel test ho notato che non tutti vanno al massimo.
Ancora sicuramente hanno da lavorare in win11 sulla gestione dei pcore ed ecore.
Più che altro sulle latenze, troppo elevate, la l3.
Diciamo che con la prossima versione faranno sicuramente meglio (raptor).
- Troppe latenze tra un core ed un altro, perchè sbattono sulla l3
-latenze tra P ed E core
-E core, spesso saturi per la l2 piccola suddivisa a loro.:)
Per il resto gran bella CPU, hai fatto bene a prenderla, queste 3080 sono potenti, ma bisogna stargli dietro.:p
davide155
19-11-2021, 19:08
Sul fatto che Intel abbia fatto un buon lavoro con quello che ha a disposizione come nanometria non si discute. :DEsatto, per ora per me i re del silicio rimangono loro perché con una tecnologia a 10nm con quella densità e frequenze di 5,4ghz in turbo con quelle specifiche, c'è solo da complimentarsi.
Non vedo l'ora di vedere coi raptor lake che tireranno fuori. Il lascito di Kim Keller già si vede da questi Alder lake
Più che altro sulle latenze, troppo elevate, la l3.
Diciamo che con la prossima versione faranno sicuramente meglio (raptor).
- Troppe latenze tra un core ed un altro, perchè sbattono sulla l3
-latenze tra P ed E core
-E core, spesso saturi per la l2 piccola suddivisa a loro.:)
Per il resto gran bella CPU, hai fatto bene a prenderla, queste 3080 sono potenti, ma bisogna stargli dietro.:pCerco di finire l'OT:
Leggo sempre con estremo piacere i tuoi interventi (anche nei thread gpu) perché ci fai entrare nel campo tecnico con una semplicità di informazione disarmante.
Secondo te potevano migliorare parecchio la potenza di calcolo con una cache L3 più performante senza incorrere in complicanze strutturali o consumi elevati?
fraussantin
19-11-2021, 19:15
Esatto, per ora per me i re del silicio rimangono loro perché con una tecnologia a 10nm con quella densità e frequenze di 5,4ghz in turbo con quelle specifiche, c'è solo da complimentarsi.
Non vedo l'ora di vedere coi raptor lake che tireranno fuori. Il lascito di Kim Keller già si vede da questi Alder lake
Cerco di finire l'OT:
?
Anche il prezzo é tutto sommato onesto , sia per il periodo che corre che per quello che offrono. AMD ha fatto una bella figuraccia con i 5000
Discorso diverso per le schede madri.
mikael84
19-11-2021, 19:37
Esatto, per ora per me i re del silicio rimangono loro perché con una tecnologia a 10nm con quella densità e frequenze di 5,4ghz in turbo con quelle specifiche, c'è solo da complimentarsi.
Non vedo l'ora di vedere coi raptor lake che tireranno fuori. Il lascito di Kim Keller già si vede da questi Alder lake
Cerco di finire l'OT:
Leggo sempre con estremo piacere i tuoi interventi (anche nei thread gpu) perché ci fai entrare nel campo tecnico con una semplicità di informazione disarmante.
Secondo te potevano migliorare parecchio la potenza di calcolo con una cache L3 più performante senza incorrere in complicanze strutturali o consumi elevati?
Sulle performance si, 4,2 di uncore a 16 e passa ns sono 70 ed oltre cicli di clock, AMD per dire sta a meno della metà.
Avere un accesso più veloce, migliorerebbe le latenze tra core e in cache.
I core più piccoli invece, invece avendo una piccolissima cache, devono viaggiare ancora di più verso la l3, saturando la l2, in questo modo, devono sprecare tonnellate di cicli a vuoto.
I P core invece, hanno una grossa l2 che aiuta queste operazioni, ma il passaggio alla l3 è inevitabile.
Ovviamente migliorando gli accessi, vai anche ad aumentare in parte l'efficienza, che è stata tagliata in parte dal decode più grande.
Chiudo OT pure io.:)
PICCOLO O.T.:
Sembra che bypassare la versione DLSS presente nella cartella del gioco sia una pratica adottata da NVIDIA da un paio di release dei driver, infatti insieme alla cartella 131844 ne ho anche altre piu' vecchie come 131599,131357 fino ad arrivare alla 65644
https://imgur.com/a/S0GP6S2
TigerTank
20-11-2021, 16:22
PICCOLO O.T.:
Sembra che bypassare la versione DLSS presente nella cartella del gioco sia una pratica adottata da NVIDIA da un paio di release dei driver, infatti insieme alla cartella 131844 ne ho anche altre piu' vecchie come 131599,131357 fino ad arrivare alla 65644
https://imgur.com/a/S0GP6S2
Idem, le ho notate anch'io. E se prendi i file bin e li rinonimi in dll, dalle proprietà vedi che ti da delle versioni di DLSS.
Esempio: cartella 131599, file 160_B9CF688.bin che se rinominato in dll come desinenza, dà come DLSS la 2.2.15.0
Comunque non è OT, ne abbiamo parlato ampiamente, stiamo cercando di capirci qualcosa(se effettivamente i drivers bypassano o si tratta solo di archivi e ci vorrà l'experience) in quanto a feature strettamente legata alle nostre vga.
sertopica
20-11-2021, 16:39
E' sicuramente piu' IT delle CPU! :Prrr:
Non sapevo che le cartelle fossero gia' li', che fosse una specie di feature dormiente?
Se date un'occhiata al file nvngx_config.txt c'e' anche una specie di tabella:
[dlss]
app_B9FEB50 = 0.0.0
app_B9FF4BC = 0.0.0
app_B9FD524 = 0.0.0
app_B9DF510 = 0.0.0
app_B9CB0B8 = 0.0.0
app_B9E26B0 = 0.0.0
app_B9D48D0 = 0.0.0
app_E99B5EC = 0.0.0
app_B9DFA64 = 0.0.0
app_B9FD6C0 = 0.0.0
app_B9CF688 = 0.0.0
app_B9D6F08 = 0.0.0
app_B9BF564 = 0.0.0
app_B9DB4F4 = 0.0.0
app_B9D2F5C = 0.0.0
app_B9D7388 = 0.0.0
app_B9F5618 = 0.0.0
app_B9DAE68 = 0.0.0
app_B9D8C54 = 0.0.0
app_B9D3EF0 = 0.0.0
app_B9FACDC = 0.0.0
app_F7361DC = 0.0.0
app_B9C3560 = 0.0.0
app_B9B0430 = 0.0.0
app_E658703 = 0.0.0
app_B9DB490 = 2.3.4
[dlisp]
app_B9CF688 = 0.0.0
app_E99B5EC = 0.0.0
app_E658703 = 0.0.0
app_B9D8C54 = 0.0.0
app_B9D2F5C = 0.0.0
app_B9DF510 = 0.0.0
app_B9DAE68 = 0.0.0
Nel mio caso solo un ID e' diverso dagli altri, probabilmente quello di Cyberpunk... Che serva a qualche servizio per capire cosa aggiornare e cosa no?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.