View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
TigerTank
20-11-2021, 16:42
Oppure quello è solo un qualche riferimento interno a livello drivers...cioè questi ultimi non bypassano. Non a caso appunto al momento ci sarebbe solo CP che si dice l'unico per il quale funzioni la questione aggiornamento da Experience.
Sarebbe da vedere se in Cyberpunk il file interno cambi nella 2.3.4. senza alcuna patch del produttore. Boh...
sertopica
20-11-2021, 17:32
Oppure quello è solo un qualche riferimento interno a livello drivers...cioè questi ultimi non bypassano. Non a caso appunto al momento ci sarebbe solo CP che si dice l'unico per il quale funzioni la questione aggiornamento da Experience.
Sarebbe da vedere se in Cyberpunk il file interno cambi nella 2.3.4. senza alcuna patch del produttore. Boh...
Interessante... A tal proposito ho fatto un esperimento veloce per curiosita':
Se lascio la vecchia versione del DLSS nella cartella di gioco, ovvero quella originale, allora i driver andranno a pescare dalla cartella presente in ProgramData:
https://abload.de/thumb/process_explorer_dlssagjo2.png (https://abload.de/image.php?img=process_explorer_dlssagjo2.png)
Se invece rinomino quel file e lo copio nella directory di Cyberpunk allora i drivers utilizzeranno quello:
https://abload.de/thumb/process_explorer_dlss0vjmf.png (https://abload.de/image.php?img=process_explorer_dlss0vjmf.png)
Quindi credo tu abbia ragione, quella tabella serve a far sapere ai servers che la tua versione e' gia' aggiornata. Questo test rapido dimostra anche che non ti servono gli ultimissimi drivers per godere di questa funzione, non so tuttavia da quando l'abbiano introdotta, ma di certo non serve GFE per averla.
Ciao a tutti, ragazzi devo cambiare il mio monitor in firma e prenderne un altra più adatta alla mia rtx 3070 con almeno 165hz, spulciando nel thread dei monitor ho capito che è meglio chiedere qui per la mia scheda video :p
Cosa mi consigliate? a leggere le recensioni dei monitor in amazon sembrano fatte uno peggio dell'altro, confusione totale.
Vorrei un monitor possibilmente 21:9 e 165hz per i giochi ftp, ma non ho idea quale sia l'offerta miglire attualmente.
TigerTank
20-11-2021, 19:04
Interessante... A tal proposito ho fatto un esperimento veloce per curiosita':
Se lascio la vecchia versione del DLSS nella cartella di gioco, ovvero quella originale, allora i driver andranno a pescare dalla cartella presente in ProgramData:
https://abload.de/thumb/process_explorer_dlssagjo2.png (https://abload.de/image.php?img=process_explorer_dlssagjo2.png)
Se invece rinomino quel file e lo copio nella directory di Cyberpunk allora i drivers utilizzeranno quello:
https://abload.de/thumb/process_explorer_dlss0vjmf.png (https://abload.de/image.php?img=process_explorer_dlss0vjmf.png)
Quindi credo tu abbia ragione, quella tabella serve a far sapere ai servers che la tua versione e' gia' aggiornata. Questo test rapido dimostra anche che non ti servono gli ultimissimi drivers per godere di questa funzione, non so tuttavia da quando l'abbiano introdotta, ma di certo non serve GFE per averla.
Grazie per la prova :)
Dunque in pratica se con CP la DLL del gioco è quella vecchia, in process explorer vedi che va a pescare in ProgramData, mentre se rinomini il bin in dll e sostituisci il file nella cartella del gioco, Process Explorer ti rileva solo il riferimento alla cartella del gioco?
Hai provato a vedere cosa succede sostituendo la DLL di CP con la 2.3.4 scaricata dal database di TPU?
A questo punto con i vari giochi con DLSS si potrà controllare con Process Explorer cosa succede e in caso peschi da ProgramData si potrà risalire sia alla cartella che al bin.
Come ho scritto ieri, Doom Eternal invece ha solo riferimenti nel gioco ma la dll in tal caso è già stata aggiornata di suo alla 2.3.0.
Devi mettere la patch beta 1013 o in caso di problemi la 813. E quindi avere l'opzione nelle impostazioni video.
E' scritto sulla pagina di Steam dedicata al gioco.
Di più non so non avendolo installato da un pezzo.
Si, ho fatto tutto. Boh , provo a reinstallare i driver ultimi nvidia
TigerTank
21-11-2021, 10:11
Si, ho fatto tutto. Boh , provo a reinstallare i driver ultimi nvidia
Prova :)
Se cerchi su youtube ci sono dei video dove si vede chiaramente l'opzione DLSS.
sertopica
21-11-2021, 10:42
Grazie per la prova :)
Dunque in pratica se con CP la DLL del gioco è quella vecchia, in process explorer vedi che va a pescare in ProgramData, mentre se rinomini il bin in dll e sostituisci il file nella cartella del gioco, Process Explorer ti rileva solo il riferimento alla cartella del gioco?
Hai provato a vedere cosa succede sostituendo la DLL di CP con la 2.3.4 scaricata dal database di TPU?
A questo punto con i vari giochi con DLSS si potrà controllare con Process Explorer cosa succede e in caso peschi da ProgramData si potrà risalire sia alla cartella che al bin.
Come ho scritto ieri, Doom Eternal invece ha solo riferimenti nel gioco ma la dll in tal caso è già stata aggiornata di suo alla 2.3.0.
Esatto funziona cosi'. Non ho provato ancora a fare quello che hai suggerito, piu' tardi sicuramente. :D
In principio mi sembra anche una buona idea quella introdotta ma ho l'impressione che sia ancora piuttosto abbozzata. Troverei per esempio sensato offrire una qualche opzione nel pannello nvidia che consente di cercare manualmente gli update dopo uno scan dei giochi installati e poi poterli installare, non mi piace il fatto che avvenga tutto in background, voglio un minimo di controllo (o presunto tale :asd: ).
fabryx73
21-11-2021, 11:15
ragazzi....grazie a tutti per i consigli per fare undervolt
sopratutto a @TigerTank e @amon.akira e anche agli altri...
penso di aver trovato il compromesso migliore con un undervolt a 0.887 e con una curva fino a 1950mhz come frequenza.....
sembra tenere sempre le frequenza senza crash per l'undervolt e il powerlimit che non entra quasi mai a parte pochissime eccezioni....
vi chiedo un'ultima cosa...giusto per capire...
l'oc della memoria in questo frangente è inutile,dannoso,o altro?
giusto per capire......provocherebbe molto powerlimit per il maggior consumo oppure non c'entra niente?migliorerebbe fps?
grazie
Le memorie consumano watt dallo stesso TDP. Se vuoi vedere esattamente quanti watt in più consumano è facile usando l'osd di rivatuner e due profili di oc diversi (1800 mhz, 0.806v per entrambi e poi ram a default per uno e +1000-1200 sul secondo)
devil_mcry
21-11-2021, 12:02
Le memorie consumano watt dallo stesso TDP. Se vuoi vedere esattamente quanti watt in più consumano è facile usando l'osd di rivatuner e due profili di oc diversi (1800 mhz, 0.806v per entrambi e poi ram a default per uno e +1000-1200 sul secondo)
questa però è una cavolata secondo me
io posso capire mettere un tetto al tdp per evitare che la gpu vada a 100 gradi ma così castra l’overclock e basta…
Alla fine il dissipatore e i circuiti di alimentazione quelli sono, quindi tra vedere 2 power limit diversi o uno solo è solo una questione di prospettiva. Il power limit è lì per proteggere l'alimentazione della scheda video, non le temperature.
Alla fine il dissipatore e i circuiti di alimentazione quelli sono, quindi tra vedere 2 power limit diversi o uno solo è solo una questione di prospettiva. Il power limit è lì per proteggere l'alimentazione della scheda video, non le temperature.
Si e no. L'alimentazione richiesta dalle memorie è decisamente sovradimensionata rispetto quanto richiesto per il core.
Quindi il limite che salva i vrm del core è ben diverso dal limite che salva i vrm delle memorie.
Il problema è che l'alimentazione una è, quindi deve essere sul totale che alimenta la scheda, dovrebbero farne parte anche le lucine, ventole ecc, ma le memorie necessitano decisamente di meno margini di sicurezza. Ovviamente come dici, temperature a parte
fabryx73
21-11-2021, 14:57
Si e no. L'alimentazione richiesta dalle memorie è decisamente sovradimensionata rispetto quanto richiesto per il core.
Quindi il limite che salva i vrm del core è ben diverso dal limite che salva i vrm delle memorie.
Il problema è che l'alimentazione una è, quindi deve essere sul totale che alimenta la scheda, dovrebbero farne parte anche le lucine, ventole ecc, ma le memorie necessitano decisamente di meno margini di sicurezza. Ovviamente come dici, temperature a parte
ok al limite proverò a fare un test....
ma alzando in oc le memorie...che ben sappiamo in questa serie(ma anche nelle precedenti) si alzavano parecchio senza particolari problemi...avrei anche un miglioramente in fps o è marginale e ben sotto all'oc del core?
Sto provando il nuovo Riva Tuner per RTX3070 ma non riesco ad impostarlo come avvio automatico all'accensione del PC, nonostante il flag è attivo.
Voi ci siete riusciti?
Fabio
TigerTank
21-11-2021, 20:39
Sto provando il nuovo Riva Tuner per RTX3070 ma non riesco ad impostarlo come avvio automatico all'accensione del PC, nonostante il flag è attivo.
Voi ci siete riusciti?
Fabio
In teoria non ci sarebbe bisogno di attivare l'opzione per l'avvio automatico perchè parte di suo con Afterburner. Prova a controllare che sia attivo l'avvio automatico di Afterburner altrimenti reinstalla tutto il pacchetto.
ok al limite proverò a fare un test....
ma alzando in oc le memorie...che ben sappiamo in questa serie(ma anche nelle precedenti) si alzavano parecchio senza particolari problemi...avrei anche un miglioramente in fps o è marginale e ben sotto all'oc del core?
Provato io
Risoluzione 4K
Test 1: 3080 a 800mv, 1800mhz (frequenza effettiva 1830), Vram default Superposition 4k optimized 14226 Max GPU power 260.8W
Test 2: 3080 a 800mv, 1800mhz (frequenza effettiva 1830), Vram +1000mhz Superposition 4k optimized 14446 Max GPU power 268.7W
Test 3: 3080 a 900mv, 1950mhz (frequenza effettiva 1965), Vram +1000mhz Superposition 4k optimized 15186 Max GPU power 334.5W
La scheda ha i pad gelid extreme quindi le temperature delle Vram sono sotto controllo. Dai numeri qua sopra se si è al limite di TDP conviene massimizzare le Vram e poi salire con il core, per unità di energia utilizzata si ricavano più prestazioni dalle Vram.
1W sul core da 11.21 punti
1W sulle vram da 27.84 punti
Domani testo Cyberpunk per vedere quanti Watt tira rispetto a Superposition
In teoria non ci sarebbe bisogno di attivare l'opzione per l'avvio automatico perchè parte di suo con Afterburner. Prova a controllare che sia attivo l'avvio automatico di Afterburner altrimenti reinstalla tutto il pacchetto.
Si all'avvio automatico per Msi Afterburner era disinserito, ora l'ho inserito ma comunque non si avvia Riva tuner se non manualmente.
In ogni modo dopo l'avvio automatico di afterburner mi compaiono gli fps in verde in alto a destra, quelli di Riva sono in alto a sinistra.
Boh
Provato io
Risoluzione 4K
Test 1: 3080 a 800mv, 1800mhz (frequenza effettiva 1830), Vram default Superposition 4k optimized 14226 Max GPU power 260.8W
Test 2: 3080 a 800mv, 1800mhz (frequenza effettiva 1830), Vram +1000mhz Superposition 4k optimized 14446 Max GPU power 268.7W
Test 3: 3080 a 900mv, 1950mhz (frequenza effettiva 1965), Vram +1000mhz Superposition 4k optimized 15186 Max GPU power 334.5W
La scheda ha i pad gelid extreme quindi le temperature delle Vram sono sotto controllo. Dai numeri qua sopra se si è al limite di TDP conviene massimizzare le Vram e poi salire con il core, per unità di energia utilizzata si ricavano più prestazioni dalle Vram.
1W sul core da 11.21 punti
1W sulle vram da 27.84 punti
Domani testo Cyberpunk per vedere quanti Watt tira rispetto a Superposition
Ma tutto il discorso della correzione errori delle ram che andavano piu' lente da overclokkate? Che test si possono fare per capire bene quanto alzarle? Io per ora ho messo un +300 simbolico...
Alekos Panagulis
22-11-2021, 09:12
Ma tutto il discorso della correzione errori delle ram che andavano piu' lente da overclokkate? Che test si possono fare per capire bene quanto alzarle? Io per ora ho messo un +300 simbolico...
Devi alzare gradualmente e a ogni step fai un benchmark.
Quando il punteggio non sale più - o peggio diminuisce - hai trovato l'oc massimo.
fabryx73
22-11-2021, 09:14
Provato io
Domani testo Cyberpunk per vedere quanti Watt tira rispetto a Superposition
Ti ringrazio tantissimo! Se riesci a testare cyberpunk per vedere effettivamente quanti watt mangia in più e ,cosa più interessante per me, quanti fps guadagna con ram oc ti ringrazio!
Setti l'overclock, fai un giro di benchmark, superposition va benissimo, se il punteggio si alza hai ancora margine, se si abbassa torna indietro di una 50ina di mhz. Altrimenti lo puoi fare direttamente in game guardando l'osd finché gli fps si alzano. 1000mhz dovrebbero farli tutte in scioltezza. Io mi raccomanderei di tenere sotto controllo le temperature delle vram.
TigerTank
22-11-2021, 10:01
Si all'avvio automatico per Msi Afterburner era disinserito, ora l'ho inserito ma comunque non si avvia Riva tuner se non manualmente.
In ogni modo dopo l'avvio automatico di afterburner mi compaiono gli fps in verde in alto a destra, quelli di Riva sono in alto a sinistra.
Boh
Sì hai decisamente qualcosa che non va anche perchè il default classico dell'OSD di AB/Rivatuner è angolo sinistro e arancione. O quello verde non è di AB/Rivatuner.
fraussantin
22-11-2021, 10:09
Si all'avvio automatico per Msi Afterburner era disinserito, ora l'ho inserito ma comunque non si avvia Riva tuner se non manualmente.
In ogni modo dopo l'avvio automatico di afterburner mi compaiono gli fps in verde in alto a destra, quelli di Riva sono in alto a sinistra.
BohMmm prova a killare gli altri programmi con osd , tipo quelli proprietari delle gpu\mobo e soprattutto gamebar e gforceexperience.
Solo per capire chi fa conflitto .
TigerTank
22-11-2021, 10:44
Facendo delle ricerche circa i pad della mia scheda e dunque guardando varie foto e video mi sono accorto di una cosa circa la mia vga... E cioè che a pari modello ci sono casi di disposizioni differenti dei chip di vram.
Mah....avranno cambiato disposizione nel corso delle produzioni o usato linee differenti?
Per fare un esempio, QUESTA (https://www.techpowerup.com/review/evga-geforce-rtx-3080-ftw3-ultra/images/front.jpg) è la foto di riferimento di TPU. Con i chip vram disposti 4+4+1+1.
In foto e video del 2021 di smontaggi vari invece ho notato appunto una disposizione differente dei chip (4+3+2+1).
Tipo QUI (https://i.imgur.com/chHe7Kk.jpg) o QUI (https://i.imgur.com/RD66lwM.jpg)
Mmm prova a killare gli altri programmi con osd , tipo quelli proprietari delle gpu\mobo e soprattutto gamebar e gforceexperience.
Solo per capire chi fa conflitto .
dei programmi da te citati ho gforceexperience ma non c'e' attivo nessun osd per fps e poi avevo disinstallato Fraps che ormai mi dava problemi.
Adesso mi funzione l'osd in alto a DX di colore verde... chissa come mai
c'e' modo di mettere anche la temperatura della GPU?
Grazie da Fabio
fraussantin
22-11-2021, 11:27
dei programmi da te citati ho gforceexperience ma non c'e' attivo nessun osd per fps e poi avevo disinstallato Fraps che ormai mi dava problemi.
Adesso mi funzione l'osd in alto a DX di colore verde... chissa come mai
c'e' modo di mettere anche la temperatura della GPU?
Grazie da FabioSi c'é l'opzione in afterburner per mettere quello che vuoi
Ma se installi hwinfo64 puoi mettere in dettaglio le temp anche di RAM e hotspot sotto i valore di afterburner.
Thunder-74
22-11-2021, 12:13
Icarus sarà il primo gioco a presentare RTXGI Infinite Scrolling Volumes
Icarus sarà il primo titolo a implementare una nuova funzionalità chiamata Infinite Scrolling Volumes, in cui il ray tracing aggiorna continuamente il volume dell'illuminazione attorno al personaggio del giocatore.
VIDEO (https://youtu.be/26qqsYE626A)
FONTE (https://wccftech.com/icarus-will-be-the-first-game-to-feature-rtxgi-infinite-scrolling-volumes/)
Si c'é l'opzione in afterburner per mettere quello che vuoi
Ma se installi hwinfo64 puoi mettere in dettaglio le temp anche di RAM e hotspot sotto i valore di afterburner.
Adesso ho fin troppe informazioni, ho impostato la temperatura su afterburner e subito sotto gli fps. il tutto in alto a sinistra in piccolo, ma inoltre ho un altro osd degli fps in alto a dx più in grande. non ho capito che succede
Fabio
Risolto, avevo abilitato l'OSD di gforceexperience... troppa roba faceva casino. adesso è tutto a posto.
Nel game qual'e' la temperatura da tenere sottocchio per capire se va in sofferenza?
MSI RTX 3070 Vented 2X OC
Fabio
Ti ringrazio tantissimo! Se riesci a testare cyberpunk per vedere effettivamente quanti watt mangia in più e ,cosa più interessante per me, quanti fps guadagna con ram oc ti ringrazio!
Cyberpunk 4k High-ultra settings (Ultra Raytracing) DLSS Quality
Core 1950 & VRAM +1000 47 fps 335W (questp è il settaggio più sensato secondo me)
https://i.ibb.co/5kSK914/Cyberpunk2077-CORE-VRAM.jpg (https://ibb.co/5kSK914)
Core 1800 & VRAM +1000 45 fps 263W
https://i.ibb.co/tXQLVDc/Cyberpunk2077-core1800-VRAM.jpg (https://ibb.co/tXQLVDc)
MAX OC = Core 2025 & VRAM +1200 48fps 370W
https://i.ibb.co/740tcDL/Cyberpunk2077-MAX-power-Limit.jpg (https://ibb.co/740tcDL)
Solo OC core a 1950 46 fps 330W
https://i.ibb.co/zX4LfLZ/Cyberpunk2077-ONLYCORE.jpg (https://ibb.co/zX4LfLZ)
STOCK 43fps 313W Power limited
https://i.ibb.co/YjKhdF6/Cyberpunk2077-STOCK.jpg (https://ibb.co/YjKhdF6)
razor820
22-11-2021, 22:20
Cyberpunk 4k High-ultra settings (Ultra Raytracing) DLSS Quality
Core 1950 & VRAM +1000 47 fps 335W (questp è il settaggio più sensato secondo me)
https://i.ibb.co/5kSK914/Cyberpunk2077-CORE-VRAM.jpg (https://ibb.co/5kSK914)
Core 1800 & VRAM +1000 45 fps 263W
https://i.ibb.co/tXQLVDc/Cyberpunk2077-core1800-VRAM.jpg (https://ibb.co/tXQLVDc)
MAX OC = Core 2025 & VRAM +1200 48fps 370W
https://i.ibb.co/740tcDL/Cyberpunk2077-MAX-power-Limit.jpg (https://ibb.co/740tcDL)
Solo OC core a 1950 46 fps 330W
https://i.ibb.co/zX4LfLZ/Cyberpunk2077-ONLYCORE.jpg (https://ibb.co/zX4LfLZ)
STOCK 43fps 313W Power limited
https://i.ibb.co/YjKhdF6/Cyberpunk2077-STOCK.jpg (https://ibb.co/YjKhdF6)
Penso che il settaggi o migliore sia il secondo, visto che per solo 2 fps risparmi 100w e abbastanza gradi
(THE REAL) Neo
22-11-2021, 22:46
Ragazzi,sono in trepidante attesa,dell'update di Assetto corsa competizione,che introdurrà il dlss, finalmente.
Ovviamente ho già aggiornato i driver,con gli ultimi hot fix,ma il dubbio che mi attanaglia ora,é...il dlss é attivabile,se uso Nvidia surround,con triplo monitor?
fraussantin
23-11-2021, 08:04
Cyberpunk 4k High-ultra settings (Ultra Raytracing) DLSS Quality
Core 1950 & VRAM +1000 47 fps 335W (questp è il settaggio più sensato secondo me)
https://i.ibb.co/5kSK914/Cyberpunk2077-CORE-VRAM.jpg (https://ibb.co/5kSK914)
Core 1800 & VRAM +1000 45 fps 263W
https://i.ibb.co/tXQLVDc/Cyberpunk2077-core1800-VRAM.jpg (https://ibb.co/tXQLVDc)
MAX OC = Core 2025 & VRAM +1200 48fps 370W
https://i.ibb.co/740tcDL/Cyberpunk2077-MAX-power-Limit.jpg (https://ibb.co/740tcDL)
Solo OC core a 1950 46 fps 330W
https://i.ibb.co/zX4LfLZ/Cyberpunk2077-ONLYCORE.jpg (https://ibb.co/zX4LfLZ)
STOCK 43fps 313W Power limited
https://i.ibb.co/YjKhdF6/Cyberpunk2077-STOCK.jpg (https://ibb.co/YjKhdF6)
+1000 sulle RAM sono un FPS in sostanza
Boh visto quello che scaldano forse converrebbe fare -1000 sulle Fe:asd: e perdere un altro FPS
Cmq si in 4k veramente conviene tenere a 1800 , le differenze sono veramente minime a differenza dei consumi.
davide155
23-11-2021, 08:27
+1000 sulle RAM sono un FPS in sostanza
Boh visto quello che scaldano forse converrebbe fare -1000 sulle Fe:asd: e perdere un altro FPS
Cmq si in 4k veramente conviene tenere a 1800 , le differenze sono veramente minime a differenza dei consumi.
Non c'è differenza di temperatura fra stock e +1300mhz.
Le performance invece a seconda dei giochi ne risentono anche più del core.
TigerTank
23-11-2021, 08:34
+1000 sulle RAM sono un FPS in sostanza
Boh visto quello che scaldano forse converrebbe fare -1000 sulle Fe:asd: e perdere un altro FPS
Cmq si in 4k veramente conviene tenere a 1800 , le differenze sono veramente minime a differenza dei consumi.
Io invece dico nessuna perchè un framerate di 4X fps mi farebbe venire l'acidità di stomaco :sofico:
devil_mcry
23-11-2021, 08:39
Non c'è differenza di temperatura fra stock e +1300mhz.
Le performance invece a seconda dei giochi ne risentono anche più del core.
Sei sicuro? Sulla 3070 qualcuno ha già provato?
Cutter90
23-11-2021, 08:47
Sei sicuro? Sulla 3070 qualcuno ha già provato?
Non penso che dipenda da scheda a scheda. Anche da me non cambi assolutamente di 1 grado tra ram stock o a +800.
Cmq in cp2077 In oc io guadagno molto di più Siamo sui 7-8 fps in 4k
devil_mcry
23-11-2021, 08:54
Non penso che dipenda da scheda a scheda. Anche da me non cambi assolutamente di 1 grado tra ram stock o a +800.
Cmq in cp2077 In oc io guadagno molto di più Siamo sui 7-8 fps in 4k
no io parlavo di fps
cmq 7-8 su quanti? magari di base ne fai già più di lui che ha una 3080, boh
Thunder-74
23-11-2021, 08:56
NVIDIA svela l'intelligenza artificiale che genera immagini dal testo
Un'immagine che vale più di mille parole ora richiede solo tre o quattro parole per essere creata, grazie a GauGAN2, l'ultima versione della popolarissima demo di pittura AI di NVIDIA Research.
Il modello di deep learning alla base di GauGAN consente a chiunque di incanalare la propria immaginazione in capolavori fotorealistici, ed è più facile che mai. Digita semplicemente una frase come "tramonto in spiaggia" e l'intelligenza artificiale genera la scena in tempo reale. Aggiungi un ulteriore aggettivo come "tramonto su una spiaggia rocciosa" o scambia "tramonto" con "pomeriggio" o "giornata di pioggia" e il modello modifica istantaneamente l'immagine.
VIDEO (https://youtu.be/5Qdr8AUNYqU)
Io invece dico nessuna perchè un framerate di 4X fps mi farebbe venire l'acidità di stomaco :sofico:
:p
Gioco a 60 fps bloccati, in cyberpunk basta mettere il dlss su auto e rimani inchiodato ai 60.
fabryx73
23-11-2021, 09:17
:p
Gioco a 60 fps bloccati, in cyberpunk basta mettere il dlss su auto e rimani inchiodato ai 60.
Grazie per la comprarativa comunque.
Anyway come già hai scritto, con queste schede il cambio dei pad termici ( e pasta su gpu) è obbligatorio. Guadagno sui 15/20 gradi tutti su vram e hotspot. Mentre su gpu c'è un +5 gradi circa ma niente di ché...
Il problema di queste schede sono le temperature del vram e hotspot che sono quasi al limite
TigerTank
23-11-2021, 09:25
:p
Gioco a 60 fps bloccati, in cyberpunk basta mettere il dlss su auto e rimani inchiodato ai 60.
Ahahah ci mancherebbe :)
Comunque grazie per la comparativa.
NVIDIA svela l'intelligenza artificiale che genera immagini dal testo
Un'immagine che vale più di mille parole ora richiede solo tre o quattro parole per essere creata, grazie a GauGAN2, l'ultima versione della popolarissima demo di pittura AI di NVIDIA Research.
Il modello di deep learning alla base di GauGAN consente a chiunque di incanalare la propria immaginazione in capolavori fotorealistici, ed è più facile che mai. Digita semplicemente una frase come "tramonto in spiaggia" e l'intelligenza artificiale genera la scena in tempo reale. Aggiungi un ulteriore aggettivo come "tramonto su una spiaggia rocciosa" o scambia "tramonto" con "pomeriggio" o "giornata di pioggia" e il modello modifica istantaneamente l'immagine.
VIDEO (https://youtu.be/5Qdr8AUNYqU)
Questo e' impressionante.
chi ha due 3090 in nvlink?
ci sono dei test sugli ultimi giochi? thankssss
mattxx88
23-11-2021, 10:13
chi ha due 3090 in nvlink?
ci sono dei test sugli ultimi giochi? thankssss
neanche su oc.net che sono dei fuori di testa c'è uno con "sli" quindi sembra proprio essere not worth
Cutter90
23-11-2021, 10:31
:p
Gioco a 60 fps bloccati, in cyberpunk basta mettere il dlss su auto e rimani inchiodato ai 60.
Ah beh grazie...... poi nelle situazioni in cui sarebbe a 40 fps per mantenere i 60 ti spara il dlls in ultraperformance mode (ossia dal 720p) :sofico:
chi ha due 3090 in nvlink?
ci sono dei test sugli ultimi giochi? thankssss
spero di no :O
davide155
23-11-2021, 11:03
Sei sicuro? Sulla 3070 qualcuno ha già provato?
Sono sicuro si :D la mia 3080 tra default e +1300mhz non cambia di un grado.
Anche i board watt assorbiti cambiano di circa 15w (cambiando solo le memorie).
NVIDIA svela l'intelligenza artificiale che genera immagini dal testo
Un'immagine che vale più di mille parole ora richiede solo tre o quattro parole per essere creata, grazie a GauGAN2, l'ultima versione della popolarissima demo di pittura AI di NVIDIA Research.
Il modello di deep learning alla base di GauGAN consente a chiunque di incanalare la propria immaginazione in capolavori fotorealistici, ed è più facile che mai. Digita semplicemente una frase come "tramonto in spiaggia" e l'intelligenza artificiale genera la scena in tempo reale. Aggiungi un ulteriore aggettivo come "tramonto su una spiaggia rocciosa" o scambia "tramonto" con "pomeriggio" o "giornata di pioggia" e il modello modifica istantaneamente l'immagine.
VIDEO (https://youtu.be/5Qdr8AUNYqU)
Questo è pazzesco
neanche su oc.net che sono dei fuori di testa c'è uno con "sli" quindi sembra proprio essere not worth
ma io voglio vedere :cry: :cry: :cry:
mikael84
23-11-2021, 11:30
chi ha due 3090 in nvlink?
ci sono dei test sugli ultimi giochi? thankssss
Test proprio no, ci sono i classici video in rete
https://www.youtube.com/watch?v=VmNIEYgU0Ig&ab_channel=TestingGames
Test proprio no, ci sono i classici video in rete
https://www.youtube.com/watch?v=VmNIEYgU0Ig&ab_channel=TestingGames
che peccato che sia sfruttato solo su due giochi in croce... ma in generale dovevano estendere l'nvlink a TUTTA la serie 3000 di fascia alta. 3070, 3080 e 3090 ... :( con solo la 3090 quale programmatore si sbatte ad implementarlo in game...
devil_mcry
23-11-2021, 11:41
che peccato che sia sfruttato solo su due giochi in croce... ma in generale dovevano estendere l'nvlink a TUTTA la serie 3000 di fascia alta. 3070, 3080 e 3090 ... :( con solo la 3090 quale programmatore si sbatte ad implementarlo in game...
credo fosse il loro scopo terminare il periodo sli e game
credo fosse il loro scopo terminare il periodo sli e game
lo so ma con la penuria di prestazioni di queste schede in 4k avrebbero dovuto almeno aspettare un altro po'... poi piu avanti certamente, ma ora avrebbero fatto stracomodo due schede di fascia media accoppiate, per chi gioca in 2 e 4k ovviamente, in fhd serve a poco
credo fosse il loro scopo terminare il periodo sli e game
Peccato però, lo sli aveva il suo fascino. Lo avevo fatto con la 970 e quando girava bene era tanta roba.
Thunder-74
23-11-2021, 12:07
Ragazzi riprendo il discorso del NIS...
EDIT: avevo scritto.... "Purtroppo per poter settarlo al meglio bisogna installare Geforce Experience, perché solo da qui si può regolare la res di rescaling" .... ma così non sembra vero...
https://i.ibb.co/r6BvPVH/Immagine-2021-11-23-130012.png
nel pannello invidia possiamo solamente regolare la nitidezza.
https://i.ibb.co/r7pp5ZJ/1.png
Altra cosa.... se attivate da pannello nvidia "indicatore di sovrapposizione", apparirà in alto a sinistra la scritta NIS:
Sarà in Blu se in quel momento sta applicando solamente il filtro di nitidezza
Sarà verde se oltre alla nitidezza sta facendo il rescaling dell'immagine
EDIT: rettifico quanto scritto...
in verità attivato da panello nvidia, in game vi troverete le res scalate. Selezionandole la scritta NIS diventa verde. A questo punto non capisco a cosa serva il selettore di "risoluzione rendering" in GFE
TigerTank
23-11-2021, 12:34
No Thunder, se attivi il ridimensionamento e vai nel pannello delle risoluzioni hai l'elenco anche lì (Scala risoluzione) e dovrebbero apparire anche nei giochi(che credo sia il motivo dei drivers hotfix) :)
L'experience ti da il vantaggio della regolazione della nitidezza direttamente in game.
Non ho capito bene a cosa serva questo rescaling, conviene tenerlo sempre acceso o no?
Inviato dal mio Mi 9T utilizzando Tapatalk
Thunder-74
23-11-2021, 12:41
No Thunder, se attivi il ridimensionamento e vai nel pannello delle risoluzioni hai l'elenco anche lì (Scala risoluzione) e dovrebbero apparire anche nei giochi(che credo sia il motivo dei drivers hotfix) :)
L'experience ti da il vantaggio della regolazione della nitidezza direttamente in game.
si ho corretto. discorso sharpening ok, ma è quel selettore "risoluzione rendering" che non capisco, se comunque poi in game devi selezionare la res scalata.
Non ho capito bene a cosa serva questo rescaling, conviene tenerlo sempre acceso o no?
Inviato dal mio Mi 9T utilizzando Tapatalk
se lo tieni sempre acceso ti applica un filtro sharpening che puoi impostare con lo slide. Inoltre ti aggiunge 5 res scalate rispetto alla tua nativa che puoi selezionare in game. La GPU si preoccuperà di fare il rescaling da quella alla nativa con perdita moderata di dettaglio.
funziona come il DLSS ma a livello software, quindi applicabile per qualsiasi titolo.
diciamo da usare quando si è accorto di frames su alcuni titoli
Esempio: queste sono le mie res partendo dalla nativa di 3440x1440
https://i.ibb.co/GWxxyD5/2.png
TigerTank
23-11-2021, 12:51
Non ho capito bene a cosa serva questo rescaling, conviene tenerlo sempre acceso o no?
Inviato dal mio Mi 9T utilizzando Tapatalk
Come ha detto Thunder, praticamente è un complemento al DLSS.
Cioè se devi giocare un titolo mattone che non ha DLSS puoi provare questa feature per aumentare il framerate. E presumo sia l'unica possibilità per chi abbia vga pre-RTX in quanto il DLSS è vincolato all'hardware delle ultime 2 generazioni.
Il NIS non è paragonabile al DLSS ma....sempre meglio di nulla, a partire dall'evitare di giocare a risoluzioni inferiori sui monitor...che si sa, upscalano(o sarebbe meglio dire "spalmano") da far schifo rispetto alle tv :D
si ho corretto. discorso sharpening ok, ma è quel selettore "risoluzione rendering" che non capisco, se comunque poi in game devi selezionare la res scalata.
Leggi QUI (https://www.nvidia.com/en-us/geforce/news/nvidia-image-scaler-dlss-rtx-november-2021-updates/#nvidia-image-scaling) che lo spiega. In pratica sono 2 modi alternativi di gestione.
razor820
23-11-2021, 13:55
Sto cominciando ad odiare il rumore delle ventole della mia gpu..
Sto lasciando le ventole al 50%, voglio proprio vedere che temperatura raggiunge...
Che voi sappiate, ad ora qual è la migliore 3080 TI per silenziosità e dissipazione?
FrancoBit
23-11-2021, 14:02
Sto cominciando ad odiare il rumore delle ventole della mia gpu..
Sto lasciando le ventole al 50%, voglio proprio vedere che temperatura raggiunge...
Che voi sappiate, ad ora qual è la migliore 3080 TI per silenziosità e dissipazione?
Quella sotto liquido :cool:
A parte gli scherzi, coi prezzi che ci sono spendi decisamente meno a mettere sotto loop tutto l'ambaradan
Liquido tutta la vita, ma pure il loop non e' che lo regalano... :D
Cutter90
23-11-2021, 14:15
Come ha detto Thunder, praticamente è un complemento al DLSS.
Cioè se devi giocare un titolo mattone che non ha DLSS puoi provare questa feature per aumentare il framerate. E presumo sia l'unica possibilità per chi abbia vga pre-RTX in quanto il DLSS è vincolato all'hardware delle ultime 2 generazioni.
Il NIS non è paragonabile al DLSS ma....sempre meglio di nulla, a partire dall'evitare di giocare a risoluzioni inferiori sui monitor...che si sa, upscalano(o sarebbe meglio dire "spalmano") da far schifo rispetto alle tv :D
Leggi QUI (https://www.nvidia.com/en-us/geforce/news/nvidia-image-scaler-dlss-rtx-november-2021-updates/#nvidia-image-scaling) che lo spiega. In pratica sono 2 modi alternativi di gestione.
Per dirla in parole povere è l'FSR di Nvidia. E funziona anche meglio perchè è automatico su ogni gioco che tu vuoi :D
MikkiClock
23-11-2021, 14:18
Come ha detto Thunder, praticamente è un complemento al DLSS.
Cioè se devi giocare un titolo mattone che non ha DLSS puoi provare questa feature per aumentare il framerate. E presumo sia l'unica possibilità per chi abbia vga pre-RTX in quanto il DLSS è vincolato all'hardware delle ultime 2 generazioni.
Il NIS non è paragonabile al DLSS ma....sempre meglio di nulla, a partire dall'evitare di giocare a risoluzioni inferiori sui monitor...che si sa, upscalano(o sarebbe meglio dire "spalmano") da far schifo rispetto alle tv :D
Leggi QUI (https://www.nvidia.com/en-us/geforce/news/nvidia-image-scaler-dlss-rtx-november-2021-updates/#nvidia-image-scaling) che lo spiega. In pratica sono 2 modi alternativi di gestione.
Vorrei provare questa feature per RDR2 però ho notato che è possibile applicarla solo come impostazione globale e non può essere attivata solo per un'applicazione, è corretto oppure c'è un modo per attivarla solo dove ti serve?
davide155
23-11-2021, 14:46
Sto cominciando ad odiare il rumore delle ventole della mia gpu..
Sto lasciando le ventole al 50%, voglio proprio vedere che temperatura raggiunge...
Che voi sappiate, ad ora qual è la migliore 3080 TI per silenziosità e dissipazione?
Liquida tutto :O
38C° di gpu e silenzio totale non ha prezzo :O
Liquida tutto :O
38C° di gpu e silenzio totale non ha prezzo :O
a riposo? :stordita:
davide155
23-11-2021, 14:56
a riposo? :stordita:
Con 28 gradi di liquido avoglia se hai quelle temperature :O
WS regna sovrana :O
razor820
23-11-2021, 15:02
Quella sotto liquido :cool:
A parte gli scherzi, coi prezzi che ci sono spendi decisamente meno a mettere sotto loop tutto l'ambaradan
Fino a qualche mese fa avevo tutto sotto liquido, e ho venduto TUTTO il custom loop, ma proprio tutto. Tra l altro regalato o quasi.
Adesso il rumore mi sta stressando.
Si parla di 1000 euro per liquidare...
Che poi ho mi sono informato male io o i wb della 3080ti costano un botto, 300 euro di media???
Certo se trovassi un kit quasi completo, usato, ci farei un pensierino
Pucceddu
23-11-2021, 15:18
Fino a qualche mese fa avevo tutto sotto liquido, e ho venduto TUTTO il custom loop, ma proprio tutto. Tra l altro regalato o quasi.
Adesso il rumore mi sta stressando.
Si parla di 1000 euro per liquidare...
Che poi ho mi sono informato male io o i wb della 3080ti costano un botto, 300 euro di media???
Certo se trovassi un kit quasi completo, usato, ci farei un pensierino
su ali ho nel carrello un kit completo per gpu+cpu, doppio rad da 280, pompa etc a 550€.
tutto Byski, devo però trovare lo stomaco di smontare la gpu completamente :stordita:
Fino a qualche mese fa avevo tutto sotto liquido, e ho venduto TUTTO il custom loop, ma proprio tutto. Tra l altro regalato o quasi.
Adesso il rumore mi sta stressando.
Si parla di 1000 euro per liquidare...
Che poi ho mi sono informato male io o i wb della 3080ti costano un botto, 300 euro di media???
Certo se trovassi un kit quasi completo, usato, ci farei un pensierino
Con tutti i componenti EK ho speso un millino, ma con anche la backplate attiva.
razor820
23-11-2021, 15:41
Con tutti i componenti EK ho speso un millino, ma con anche la backplate attiva.
Ma tra blackblate attivo e passivo la differenza è evidente per le memorie?
Avevo visto un kit dell Alphacool Eiswolf 2 per le 30xx, compreso wb, radiatore da 360, pompa e fan. 280 euro
Ma non ho visto recensioni in merito sulle temperature
Ma tra blackblate attivo e passivo la differenza è evidente per le memorie?
Avevo visto un kit dell Alphacool Eiswolf 2 per le 30xx, compreso wb, radiatore da 360, pompa e fan. 280 euro
Ma non ho visto recensioni in merito sulle temperature
La 3090 ha anche le ram sul retro e gia' che facevo il lavoro ho preferito metterlo, pero' non saprei quanto conta effettivamente.
Cutter90
23-11-2021, 15:53
spendere 1000 euro, dopo averne spesi già 1800 +500 tra cpu e gpu.... mi tengo le ventole al 100% piuttosto :D
mattxx88
23-11-2021, 16:30
spendere 1000 euro, dopo averne spesi già 1800 +500 tra cpu e gpu.... mi tengo le ventole al 100% piuttosto :D
vai su tomshw :stordita:
spendete spendete! ormai fatto 30 si fa 31 su :D
FrancoBit
23-11-2021, 16:33
vai su tomshw :stordita:
spendete spendete! ormai fatto 30 si fa 31 su :D
Minchi@ Tom's cosa è diventato :(
Ma tra blackblate attivo e passivo la differenza è evidente per le memorie?
Avevo visto un kit dell Alphacool Eiswolf 2 per le 30xx, compreso wb, radiatore da 360, pompa e fan. 280 euro
Ma non ho visto recensioni in merito sulle temperature
Non lo fanno per le FE altrimenti l'avrei già comprato. Reference != FE
Dovrebbe uscire entro l'anno ma non ci credo molto.
https://forum.alphacool.com/threads/eiswolf-for-rtx-3080-fe.1483/page-3
non è proprio pianificato per le 3090.
La tua unica speranza è undervoltare la scheda. E ora siamo in autunno...
Qualcuno che ha qualche consiglio su cosa usare per fare l'impianto a liquido più economico possibile per liquidare una 3080 FE con un 360mm e tubi morbidi? interesse 0 per quanto riguarda l'estetica. Io andrei con bykski per il WB e magari vaschetta e pompa integrata in un unico blocco.
mattxx88
23-11-2021, 16:39
Minchi@ Tom's cosa è diventato :(
mi ha gia brasato il mio amico Black Mesa non molto tempo fa, quindi non mi esprimo apertamente :fagiano: :O
razor820
23-11-2021, 16:55
Non lo fanno per le FE altrimenti l'avrei già comprato. Reference != FE
Dovrebbe uscire entro l'anno ma non ci credo molto.
https://forum.alphacool.com/threads/eiswolf-for-rtx-3080-fe.1483/page-3
non è proprio pianificato per le 3090.
La tua unica speranza è undervoltare la scheda. E ora siamo in autunno...
Qualcuno che ha qualche consiglio su cosa usare per fare l'impianto a liquido più economico possibile per liquidare una 3080 FE con un 360mm e tubi morbidi? interesse 0 per quanto riguarda l'estetica. Io andrei con bykski per il WB e magari vaschetta e pompa integrata in un unico blocco.
Ma byski è cinese?
Già undervoltata. Ma sono le ventole che mi urtano. Al 50% nessun problema, ma la temperatura arriva a 80 gradi per non parlare delle memorie. Con ventole da 60-70% situazione molto più fresca ma casinara..
Sono aperto anch io a consigli
dylandog_666
23-11-2021, 17:07
Io con componentistica Barrow non ho speso così tanti soldi, quando sento 1000-1500 euro mi spavento :fagiano: non avendo grandi disponibilità economiche...
Ho solo preso i radiatori della black ice (usati) e il wb della 3080 mi sono buttato su EK per la fiducia (non che quello barrow/byski sia malaccio eh).
razor820
23-11-2021, 17:21
Ma negozi affidabili, a prezzi onesti per WB Ek per gpu? qualche consiglio?
Black"SLI"jack
23-11-2021, 18:23
i prezzi dei vari componenti per liquid cooling più o meno sono allineati tra i vari shop. ovviamente è bene scegliere shop dedicati a tale settore. vedi i vari shop dei brand, o i nomi storici del liquid cooling, come ybris, caseking, highflow, aquatuning. lasciamo stare invece il dragone e similari oppure amazon (che spesso ha prezzi più alti). dai primi shop elencati in 11 anni di liquid cooling sempre comprato, lasciandoci migliaia di euro, senza mai un problema.
se lo tieni sempre acceso ti applica un filtro sharpening che puoi impostare con lo slide. Inoltre ti aggiunge 5 res scalate rispetto alla tua nativa che puoi selezionare in game. La GPU si preoccuperà di fare il rescaling da quella alla nativa con perdita moderata di dettaglio.
funziona come il DLSS ma a livello software, quindi applicabile per qualsiasi titolo.
diciamo da usare quando si è accorto di frames su alcuni titoli
Come ha detto Thunder, praticamente è un complemento al DLSS.
Cioè se devi giocare un titolo mattone che non ha DLSS puoi provare questa feature per aumentare il framerate. E presumo sia l'unica possibilità per chi abbia vga pre-RTX in quanto il DLSS è vincolato all'hardware delle ultime 2 generazioni.
Il NIS non è paragonabile al DLSS ma....sempre meglio di nulla, a partire dall'evitare di giocare a risoluzioni inferiori sui monitor...che si sa, upscalano(o sarebbe meglio dire "spalmano") da far schifo rispetto alle tv :D
Ottimo, adesso mi è più chiaro, mille grazie per la spiegazione ;)
davide155
23-11-2021, 19:10
Oh se volete liquidare le bestiole ho un paio di radiatori phobya ed alphacool rimasti da quando ho messo il bestione esterno.
Quasi li regalo pur di toglierli dall'armadio. Mi piange il cuore vederli fermi.
Ma negozi affidabili, a prezzi onesti per WB Ek per gpu? qualche consiglio?
Io ho preso tutto dal loro shop senza problemi.
frafelix
24-11-2021, 12:21
Sono ancora indeciso se prendere un monitor 2k o 4k per la 3080ti... Coi giochi che non supportano il dlss siamo un po' a pelo come prestazioni sui 4k a 60fps e non vorrei che con i prossimi giochi le cose peggiorino ancora (ovviamente senza il discorso del cambio vga). Voi cosa dite?
Cutter90
24-11-2021, 12:33
Sono ancora indeciso se prendere un monitor 2k o 4k per la 3080ti... Coi giochi che non supportano il dlss siamo un po' a pelo come prestazioni sui 4k a 60fps e non vorrei che con i prossimi giochi le cose peggiorino ancora (ovviamente senza il discorso del cambio vga). Voi cosa dite?
Che se vai di monitor, 2k tutta la vita. Su un 27 tra il 2k e il 4k la differenza è minima se non inesistente. Discorso ben diverso se vai su tv oled da 42 (prossimo anno) o 48 usati come monitor.
StrixyRoG
24-11-2021, 12:43
Sono ancora indeciso se prendere un monitor 2k o 4k per la 3080ti... Coi giochi che non supportano il dlss siamo un po' a pelo come prestazioni sui 4k a 60fps e non vorrei che con i prossimi giochi le cose peggiorino ancora (ovviamente senza il discorso del cambio vga). Voi cosa dite?
Per me su PC esiste solo il 21:9, se dovessi stare su un 16:9 a quel punto andrei di TV che costa anche meno.
Con 28 gradi di liquido avoglia se hai quelle temperature :O
WS regna sovrana :O
mmmmm bho non so proprio dove abbia sbagliato ma la mia 5700XT arrivava a 50+ gradi sul core questa estate (rimontato due volte il WB perchè avevo un delta con l'hotspot anche di quaranta gradi :stordita: ) e ho pure io una ws esterna da 1260 (ventole al minimo, ok) ma sono solo pippe mentali, rispetto ad aria ho trenta-quaranta gradi in meno, silenzio assoluto e prima ero in undervolt, ora sono in oc :asd: spaziale.....
Suppongo che la mia nniversary edition abbia qualcosa di diverso rispetto alla reference normale e il wb che ho preso era dato compatiible per il reference, non menzionava la anniversary....mbhoooooooooo :stordita:
Black"SLI"jack
24-11-2021, 13:24
Sono ancora indeciso se prendere un monitor 2k o 4k per la 3080ti... Coi giochi che non supportano il dlss siamo un po' a pelo come prestazioni sui 4k a 60fps e non vorrei che con i prossimi giochi le cose peggiorino ancora (ovviamente senza il discorso del cambio vga). Voi cosa dite?
a pelo sui 4k@60hz, forse nei giochi mal ottimizzati. per carità. già giocavo e gioco in 4k@60hz maxato con la 2080ti su buona parte dei titoli. con la 3090, ho puntato al 4k@120hz. ovviamente g-sync è una feature irrinunciabile.
chiaro che se cerchi i 144hz in 4k, senza compromessi, ovvio che al momento non c'è nulla che te lo garantisca sul 101% dei giochi. e se non sei interessato agli hz, ma al maxare i titoli, allora personalmente una 3080ti o 3090 in 2k sono sprecate.
la componente RT la metto a parte, in quanto anche in 2k, nessuna scheda tiene elevati refresh, anche se in aiuto c'è il DLSS.
come detto da StrixyRog, andrei su un bel 34" 21:9 3440x1440 da 144/165hz, g-sync. e quindi si metti in una via di mezzo. per restare sui 16:9 vai di oled 48" ora o 42" da nuovo anno.
La mia gpu trova l'equilibrio termico a 55°, pero' ho le ram praticamente alla stessa temperatura e l'hot spot 10° gradi in piu'.
Ma byski è cinese?
Già undervoltata. Ma sono le ventole che mi urtano. Al 50% nessun problema, ma la temperatura arriva a 80 gradi per non parlare delle memorie. Con ventole da 60-70% situazione molto più fresca ma casinara..
Sono aperto anch io a consigli
Scusa , ma tu hai una 3080 TI FE come vedo in firma?. No perchè io ho una 3080 ti FE e devo dire che non mi aspettavo fosse così ottima. A stock ventole 50% silenziosissime, mai andato oltre i 73c in 4k. Con undervolt e ventola personale sto anche sotto i 70c con al massimo 65% di ventol3 e sono anche silenziose.. Memory junc sta tra 88 e 94. Mi sembra strano tu abbia quelle temperature
Sono ancora indeciso se prendere un monitor 2k o 4k per la 3080ti... Coi giochi che non supportano il dlss siamo un po' a pelo come prestazioni sui 4k a 60fps e non vorrei che con i prossimi giochi le cose peggiorino ancora (ovviamente senza il discorso del cambio vga). Voi cosa dite?
Io ti posso dire la mia esperienza, avendo un monitor 2k, uno 3440 x 1440p e un tv 4k 120 hz. Ho provato sia la 3080 che la 3080 ti su tutti i display. LA 3080 ti su 4k va molto meglio della 3080 secondo me, anche oltre i 60 o 70 fps ( poi dipende dal titolo). Sul display 3440x1440p è una favola sia per la 3080 che per la 3080 TI, è il display che preferisco. Se hai il budget io ti consiglierei un bel tv 4k 120hz e anche un 3440x1440p con buon rapporto qualità prezzo senza spendere tantissimo. In questo modo avrai la migliore esperienza possibile in base ai giochi
FrancoBit
24-11-2021, 14:07
Sono ancora indeciso se prendere un monitor 2k o 4k per la 3080ti... Coi giochi che non supportano il dlss siamo un po' a pelo come prestazioni sui 4k a 60fps e non vorrei che con i prossimi giochi le cose peggiorino ancora (ovviamente senza il discorso del cambio vga). Voi cosa dite?
Anch'io sono su 21:9 ormai da 5 anni, quello in firma è il terzo modello da quando presi il primo Samsung nel 2016. Non ho mai avuto intenzione di tornare ai 16:9. Ovviamente sull'altro piatto della bilancia ci può stare solo un OLED a 120hz con gsync secondo il mio parere. Dipende ovviamente da che tipo di postazione hai, in termini di distanza dallo schermo e esigenze. Unica cosa che mi spaventa degli OLED è il burn-in...
Anch'io sono su 21:9 ormai da 5 anni, quello in firma è il terzo modello da quando presi il primo Samsung nel 2016. Non ho mai avuto intenzione di tornare ai 16:9. Ovviamente sull'altro piatto della bilancia ci può stare solo un OLED a 120hz con gsync secondo il mio parere. Dipende ovviamente da che tipo di postazione hai, in termini di distanza dallo schermo e esigenze. Unica cosa che mi spaventa degli OLED è il burn-in...
Io oltre a 21:9 che uso sempre, ho un Tv 4k 120hz Nanocell compatibile Nvidia Gsync e devo dire che mi trovo benissimo senza rischi di burn-in. Certo Oled si vede meglio, ma anche il nanocell LG va molto bene per il gaming purchè si parta dalla fascia media
fraussantin
24-11-2021, 14:23
Sono ancora indeciso se prendere un monitor 2k o 4k per la 3080ti... Coi giochi che non supportano il dlss siamo un po' a pelo come prestazioni sui 4k a 60fps e non vorrei che con i prossimi giochi le cose peggiorino ancora (ovviamente senza il discorso del cambio vga). Voi cosa dite?Secondo me i monitor 4k sono una mezza truffa.
O prendi una TV con freesync per giocare , ma poi per uso desktop hai cmq bisogno di un monitor o meglio un ultra wide.
razor820
24-11-2021, 14:32
Monitor 2k ips g-sync a vita e tv 4k 60fps.
Sono l accoppiata vincente.
1) Monitor alta frequenza indispensabile per gli fps e soprattutto per attività desktop, office ecc. Impossibile in quel caso usare una tv
2) Tv per film o gaming da poltrona e joypad con i 60fps tranquilli.
Ad ora non esiste un ibrido. Anche perché
1) le uniche scelte decenti in ambito monitor 4k g-sync 144hz a salire con pannello decente ci vogliono almeno 2000 euro
2) raggiungere almeno 120hz con i giochi più esosi richiedono 2 rtx3080... A patto di non accontentarsi del dls performance, che è come dire tanto vale giocare in 1080p e risparmiarsi una valanga di money di upgrade
Monitor 2k ips g-sync a vita e tv 4k 60fps.
Sono l accoppiata vincente.
1) Monitor alta frequenza indispensabile per gli fps e soprattutto per attività desktop, office ecc. Impossibile in quel caso usare una tv
2) Tv per film o gaming da poltrona e joypad con i 60fps tranquilli.
Ad ora non esiste un ibrido. Anche perché
1) le uniche scelte decenti in ambito monitor 4k g-sync 144hz a salire con pannello decente ci vogliono almeno 2000 euro
2) raggiungere almeno 120hz con i giochi più esosi richiedono 2 rtx3080... A patto di non accontentarsi del dls performance, che è come dire tanto vale giocare in 1080p e risparmiarsi una valanga di money di upgrade
Io ho speso 490 euro seguendo un offerta Euronics per un Nanocell LG 4k 120hz. Un 886 e mi trovo benissimo, si vede molto bene nei giochi. Non è detto si debba necessariamente spendere 2000 per un tv 4k se ci si deve giocare e ci si vede qualche film. Certo se si vuole il cinema soprattutto, allora si.
devil_mcry
24-11-2021, 14:52
Io ho speso 490 euro seguendo un offerta Euronics per un Nanocell LG 4k 120hz. Un 886 e mi trovo benissimo, si vede molto bene nei giochi. Non è detto si debba necessariamente spendere 2000 per un tv 4k se ci si deve giocare e ci si vede qualche film. Certo se si vuole il cinema soprattutto, allora si.
Non è tanto per i 120hz, il problema delle TV buone è tutto nell'hdr.
mikael84
24-11-2021, 14:52
Io ti posso dire la mia esperienza, avendo un monitor 2k, uno 3440 x 1440p e un tv 4k 120 hz. Ho provato sia la 3080 che la 3080 ti su tutti i display. LA 3080 ti su 4k va molto meglio della 3080 secondo me, anche oltre i 60 o 70 fps ( poi dipende dal titolo). Sul display 3440x1440p è una favola sia per la 3080 che per la 3080 TI, è il display che preferisco. Se hai il budget io ti consiglierei un bel tv 4k 120hz e anche un 3440x1440p con buon rapporto qualità prezzo senza spendere tantissimo. In questo modo avrai la migliore esperienza possibile in base ai giochi
Si in quanto riesci a sfruttare meglio il chip, come le ALU e le rop's.
Per il resto concordo, meglio la combo.
Non è tanto per i 120hz, il problema delle TV buone è tutto nell'hdr.
Si, ma per l' HDR c'è solo Oled. Nella mia esperienza 4k nanocell 120hz per giocare ha un HDR accettabile, un local dimming anche se non sempre va benissimo. Cioè quello che volevo dire è che io non spenderei mai 2000 per un oled per giocare in HDR. Il mio nanocell stava a 1099, poi in offerta fuori tutto l'ho pagato 500, altrimenti li restava se era per giocare. Invece ho speso volentieri 1000 per un ottimo 34 21:9 HDR 500. Poi è vero, che HDR delle TV di altissima fascia non possono competere con monitor o il mio nanocell, ma alla fine per giocare.... direi che i 120 hz sono d'obbligo se hai una 3080 ti. Di seguito ci sono due foto di RED DEAD 2 su tv 4k 120 hz da 55"
https://imgbb.com/TL8jHf6
https://ibb.co/dtJ1W3S
Cutter90
24-11-2021, 15:24
Si, ma per l' HDR c'è solo Oled. Nella mia esperienza 4k nanocell 120hz per giocare ha un HDR accettabile, un local dimming anche se non sempre va benissimo. Cioè quello che volevo dire è che io non spenderei mai 2000 per un oled per giocare in HDR. Il mio nanocell stava a 1099, poi in offerta fuori tutto l'ho pagato 500, altrimenti li restava se era per giocare. Invece ho speso volentieri 1000 per un ottimo 34 21:9 HDR 500. Poi è vero, che HDR delle TV di altissima fascia non possono competere con monitor o il mio nanocell, ma alla fine per giocare.... direi che i 120 hz sono d'obbligo se hai una 3080 ti. Di seguito ci sono due foto di RED DEAD 2 su tv 4k 120 hz da 55"
https://imgbb.com/TL8jHf6
https://ibb.co/dtJ1W3S
Ehmmm lg c1 da 55 sta a 1200, altrochè 2000 euro. Il 48 idem. E non hanno nulla a che spartire con il Nanocell, sotto ogni aspetto. I tv nanocell di lg sono poco più che discreti lcd. Già un full led sony o samsung vanno molto meglio come qualità visiva.
La feature imprescindibile sulle tv è hdmi 2.1 e OLED
Cutter90
24-11-2021, 15:26
La feature imprescindibile sulle tv è hdmi 2.1 e OLED
... e magari più di 2 :)
frafelix
24-11-2021, 15:29
Il mio problema è lo spazio, non posso prendere una tv... Al massimo mi sta un 27" o 30", quindi scartati anche tutti gli ultra wide. Avevo già chiesto nei thread dei monitor e capisco che l'hdr600 dei monitor faccia pena rispetto ad una tv, ma tanto non la posso mettere!
Il dubbio era solo se riuscivo a gestire tutti i giochi che non hanno dlss al massimo dei dettagli a 4k minimo a 60fps con una 3080ti
Ehmmm lg c1 da 55 sta a 1200, altrochè 2000 euro. Il 48 idem. E non hanno nulla a che spartire con il Nanocell, sotto ogni aspetto. I tv nanocell di lg sono poco più che discreti lcd. Già un full led sony o samsung vanno molto meglio come qualità visiva.
Indubbiamente, ma a me serviva solo per giocare in 4k a 120 hz, non per vedere i film . Per quello, a me, va benissimo
FrancoBit
24-11-2021, 15:38
Ehmmm lg c1 da 55 sta a 1200, altrochè 2000 euro. Il 48 idem. E non hanno nulla a che spartire con il Nanocell, sotto ogni aspetto. I tv nanocell di lg sono poco più che discreti lcd. Già un full led sony o samsung vanno molto meglio come qualità visiva.
Infatti scrivevo proprio fresco fresco di occhiata allo sconto su Amazon (il 48 999€), ma mi son trattenuto, quando cambierò casa mi prenderò un bell'oleddone
devil_mcry
24-11-2021, 15:39
Si, ma per l' HDR c'è solo Oled. Nella mia esperienza 4k nanocell 120hz per giocare ha un HDR accettabile, un local dimming anche se non sempre va benissimo. Cioè quello che volevo dire è che io non spenderei mai 2000 per un oled per giocare in HDR. Il mio nanocell stava a 1099, poi in offerta fuori tutto l'ho pagato 500, altrimenti li restava se era per giocare. Invece ho speso volentieri 1000 per un ottimo 34 21:9 HDR 500. Poi è vero, che HDR delle TV di altissima fascia non possono competere con monitor o il mio nanocell, ma alla fine per giocare.... direi che i 120 hz sono d'obbligo se hai una 3080 ti. Di seguito ci sono due foto di RED DEAD 2 su tv 4k 120 hz da 55"
https://imgbb.com/TL8jHf6
https://ibb.co/dtJ1W3S
Ma non è vero anche perché per ora i fantomatici 1000nits di hdr li raggiungono e superano solo le tv FALD. Vedremo l'anno prossimo
Una tv con un local dimming decente e un buon hdr la trovi già a 800€
Il mio problema è lo spazio, non posso prendere una tv... Al massimo mi sta un 27" o 30", quindi scartati anche tutti gli ultra wide. Avevo già chiesto nei thread dei monitor e capisco che l'hdr600 dei monitor faccia pena rispetto ad una tv, ma tanto non la posso mettere!
Il dubbio era solo se riuscivo a gestire tutti i giochi che non hanno dlss al massimo dei dettagli a 4k minimo a 60fps con una 3080ti
Prima di tutto non è assolutamente vero che HDR 600 fa pena. Dipende da tantissime cose. Dal contrasto in primis e da un possibile local dimming in seconda battuta. Un monitor con un buon contrasto e HDR 600 è godibilissimo per il gaming. Altrimenti si comincia a pensare che per giocare vada bene solo una TV, e questo non è vero. Se prendi un 34" 3440x1440p a questo punto, con un buon contrasto e una luminanza di picco che si aggira tra 500 e 700, secondo me ti diverti alla grande anche con HDR. Inoltre io un oled per pc non mi arrischierei prendendolo , c'è sempre comunque il rischio di burn in, se non si sta attenti. Preferisco stare sereno.
Ma non è vero anche perché per ora i fantomatici 1000nits di hdr li raggiungono e superano solo le tv FALD. Vedremo l'anno prossimo
Una tv con un local dimming decente e un buon hdr la trovi già a 800€
MA resta il fatto che è una TV con tutte le cose positive e con tutte le cose negative, una di queste è la compatibilità vera con Gsync
Si, ma per l' HDR c'è solo Oled. Nella mia esperienza 4k nanocell 120hz per giocare ha un HDR accettabile, un local dimming anche se non sempre va benissimo. Cioè quello che volevo dire è che io non spenderei mai 2000 per un oled per giocare in HDR. Il mio nanocell stava a 1099, poi in offerta fuori tutto l'ho pagato 500, altrimenti li restava se era per giocare. Invece ho speso volentieri 1000 per un ottimo 34 21:9 HDR 500. Poi è vero, che HDR delle TV di altissima fascia non possono competere con monitor o il mio nanocell, ma alla fine per giocare.... direi che i 120 hz sono d'obbligo se hai una 3080 ti. Di seguito ci sono due foto di RED DEAD 2 su tv 4k 120 hz da 55"
https://imgbb.com/TL8jHf6
https://ibb.co/dtJ1W3S
Non e' vero, anzi l'oled e' abbastanza limitato come nits, sopratutto quando c'e' una buona parte dello schermo illuminata. Ha sicuramente il vantaggio del contrasto, ma a livello di puro hdr un led top di gamma potrebbe essere meglio.
Non e' vero, anzi l'oled e' abbastanza limitato come nits, sopratutto quando c'e' una buona parte dello schermo illuminata. Ha sicuramente il vantaggio del contrasto, ma a livello di puro hdr un led top di gamma potrebbe essere meglio.
Infatti, e io cosa ho detto? E' quello che credo anche io. La capacità dell'OLED è soprattutto sul grande contrasto, per questo HDR si vede molto bene. Un buon monitor con buon contrasto e ottima luminanza potrebbe dare buonissime performance HDR. MA si deve spendere. All'utente che ha chiesto consiglio io direi di volgersi verso un monitor 34 21:9 3440x1440p con hdr 500 /600 e un contrasto decente. Gsync compatibile. VA o IPS dipende dai suoi gusti. Questo visto che ha parlato di necessità legate allo spazio.
TigerTank
24-11-2021, 16:05
Il mio problema è lo spazio, non posso prendere una tv... Al massimo mi sta un 27" o 30", quindi scartati anche tutti gli ultra wide. Avevo già chiesto nei thread dei monitor e capisco che l'hdr600 dei monitor faccia pena rispetto ad una tv, ma tanto non la posso mettere!
Il dubbio era solo se riuscivo a gestire tutti i giochi che non hanno dlss al massimo dei dettagli a 4k minimo a 60fps con una 3080ti
Eh a questo punto prendi uno dei 2560x1440 più recenti, avanzati e tirati in frequenza...così se non in 4K, perlomeno sfrutti la vga a framerate :)
Tipo LG 27GP850 da 180Hz.
devil_mcry
24-11-2021, 18:22
avevo letto che il resizable bar sui ryzen 3900x non c’era invece vedo che è attivo
hanno cambiato quella cosa?
fraussantin
24-11-2021, 18:36
avevo letto che il resizable bar sui ryzen 3900x non cera invece vedo che è attivo
hanno cambiato quella cosa?Con l'ultimo bios me lo sono trovato attivo anche io sul 3700x per default
devil_mcry
24-11-2021, 18:45
Con l'ultimo bios me lo sono trovato attivo anche io sul 3700x per default
il mio era disabilitato e per sbaglio l’ho messo su auto
ma sul sito nvidia avevo letto che solo zen 3 era supportato
avevo letto che il resizable bar sui ryzen 3900x non c’era invece vedo che è attivo
hanno cambiato quella cosa?
Quando avevo il 3900X era già attivo,e ti parlo di min 6 mesi fa,non è vero che non è supportato
il mio era disabilitato e per sbaglio l’ho messo su auto
ma sul sito nvidia avevo letto che solo zen 3 era supportato
Io ho un ryzen 7 3700x, da mesi ho RBAR attivo. Puoi provare ad aggiornare il bios della motherboard e attivare REBAR sul bios. Inoltre è importante che anche la GPU sia aggiornata al firmware che prevede il funzionamento REBAR, se è una scheda che hai acquistato prima dell'uscita di questa feature. Ad esempio io avevo una zotac amp holo 3080 ed ho dovuto aggiornare il firm sul sito zotac per accedere alla REBAR. Prova a controllare queste cose
davide155
24-11-2021, 21:22
Comunque per gli amanti del raytracing e grafica di alto livello consiglio Bright Memory: Infinite. C'è su steam a 16€. L'avevo adocchiato alla presentazione, poi l'ho ritrovato ora per caso su steam.
Dura poche ore, ma in raytracing e con l'UE4 in grande spolvero è una goduria per gli occhi. Molto divertente e giocabile pure. Una piacevole sorpresa. Con dlss su qualità non scendeva sotto i 120fps seppur mantenendo un dettaglio impressionante.
https://www.spaziogames.it/wp-content/uploads/2020/05/bright-memory.jpg
Comunque per gli amanti del raytracing e grafica di alto livello consiglio Bright Memory: Infinite. C'è su steam a 16€. L'avevo adocchiato alla presentazione, poi l'ho ritrovato ora per caso su steam.
Dura poche ore, ma in raytracing e con l'UE4 in grande spolvero è una goduria per gli occhi. Molto divertente e giocabile pure. Una piacevole sorpresa. Con dlss su qualità non scendeva sotto i 120fps seppur mantenendo un dettaglio impressionante.
https://www.spaziogames.it/wp-content/uploads/2020/05/bright-memory.jpg
Dura un'ora e trenta:D :D :D :D
davide155
24-11-2021, 21:47
Dura un'ora e trenta:D :D :D :D
Un'ora e trenta molto intensa :O
Un'ora e trenta molto intensa :O
Si, dicevo per scherzare. Quando scende di prezzo lo prendo.
devil_mcry
24-11-2021, 22:05
Io ho un ryzen 7 3700x, da mesi ho RBAR attivo. Puoi provare ad aggiornare il bios della motherboard e attivare REBAR sul bios. Inoltre è importante che anche la GPU sia aggiornata al firmware che prevede il funzionamento REBAR, se è una scheda che hai acquistato prima dell'uscita di questa feature. Ad esempio io avevo una zotac amp holo 3080 ed ho dovuto aggiornare il firm sul sito zotac per accedere alla REBAR. Prova a controllare queste cose
Quando avevo il 3900X era già attivo,e ti parlo di min 6 mesi fa,non è vero che non è supportato
non era attivo nel bios mentre pensavo fosse disabled per la cpu, per caso ho visto che nel bios non era in auto
Cutter90
25-11-2021, 07:16
MA resta il fatto che è una TV con tutte le cose positive e con tutte le cose negative, una di queste è la compatibilità vera con Gsync
Ma guarda che gli oled hanno il gsync.... poi in realtà le cose negative di un lg c1 rispetto ad un monitor sono giusto le dimensioni, in base alle esigenze. In tutto il resto è migliore e non di poco in alcuni aspetti.
Nel giudicare l'hdr non bisogna solamente definire i nits. Perchè i monitor i nits ce li avrebbero pure, anche quelli costosi, ma senza un controllo del dimming accurato non servono a nulla. Ecco perchè nell'hdr l'oled è altresì fortissimo. Per l'hdr lo va ad applicare solo ed esclusivamente dove serve (avendo i pixel stessi che si accendono e spengono) non bruciando dettagli come farebbe un qualsiasi led (che per quante zone di controllo abbia non ha i led grandi come i pixel, quindi non riesce assolutamente ad avere la stessa precisione).
PS: uso il c9 da 2 anni su pc in maniera assidua. Con qualche accortezza (programmino per nascondere le icone, screen saver ecc ecc), per ora nessun tipo di problema. Il burn in nelle nuove serie è molto più difficile da riscontrare che in passato.
Thunder-74
25-11-2021, 07:45
GeForce hotfix display driver version 496.98 is based on our latest Game Ready Driver 496.76.
LINK (https://nvidia.custhelp.com/app/answers/detail/a_id/5281)
The hotfix addresses the following issues:
[YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback. [3420164]
[Notebook]: Black screen may be observed on some Optimus notebooks with 1440p/165hz panels when in discrete GPU mode [3426730]
Games do not launch correctly on GeForce GTX 750 Ti when NVIDIA Image Scaling is enabled [3442778]
Using Adaptive Vertical Sync while G-SYNC is enabled may result in random black screen [3437003]
[Red Dead Redemption 2/Doom Eternal]: The game crashes with TDR or the system crashes while running the game. [200766423]
caldamente consigliato soprattutto per il problema risolto di YouTube.... io l'ho avuto.
Ma guarda che gli oled hanno il gsync.... poi in realtà le cose negative di un lg c1 rispetto ad un monitor sono giusto le dimensioni, in base alle esigenze. In tutto il resto è migliore e non di poco in alcuni aspetti.
Nel giudicare l'hdr non bisogna solamente definire i nits. Perchè i monitor i nits ce li avrebbero pure, anche quelli costosi, ma senza un controllo del dimming accurato non servono a nulla. Ecco perchè nell'hdr l'oled è altresì fortissimo. Per l'hdr lo va ad applicare solo ed esclusivamente dove serve (avendo i pixel stessi che si accendono e spengono) non bruciando dettagli come farebbe un qualsiasi led (che per quante zone di controllo abbia non ha i led grandi come i pixel, quindi non riesce assolutamente ad avere la stessa precisione).
PS: uso il c9 da 2 anni su pc in maniera assidua. Con qualche accortezza (programmino per nascondere le icone, screen saver ecc ecc), per ora nessun tipo di problema. Il burn in nelle nuove serie è molto più difficile da riscontrare che in passato.
Ma guarda che stiamo dicendo le stesse cose con parole diverse. Queste cose che mi dici le ho riportate anche nei miei post precedenti. LE conosco benissimo. PEr quanto riguarda Oled, so benissimo che ha Gsync, mi riferivo io rispondendo ad altro utente, in relazione ad altre TV su 800 euro. Conosco perfettamente il valore dell'Oled TV, ma per il gaming non lo ritengo pratico se non in salotto, altrimenti invece di prendermi un Predator da 1000 Euro 21:9, avrei preso senza grossi problemi un Oled:) . Il nanocell LG lo presi solo perchè mi trovai davanti ad un'offerta con ultimo esemplare, e per 490 Euro fu un affarone per un 4k 120hz. Cercavo un monitor 4k 120hz per la mia 3080, quindi presi l'occasione al volo. Attualmente è collegato al mio pc con una cavo HDMI da interno muro ed è appeso sulla parte opposta a dove tengo il pc. Onestamente lo uso pochissimo per giocare perchè il 3440 x1440p a 180 hz Predator mi soddisfa molto di più su desktop. Se avessi dovuto scegliere una TV per per godermi cinema di alta qualità sul divano, avrei acquistato senza indugi un Oled. MA ancora mi va bene il mio vecchio TV che ho in salotto. Per i pochi titoli che gioco su 4k 120 hz per me va benissimo il Nanocell 886, compatibile Gsync e con una buonissima accuratezza del colore, buon livellamento dei neri, un contrasto decente. Metterlo a confronto con Oled è inutile perchè stiamo parlando di altra tecnologia e altra fascia di prezzo.
Cutter90
25-11-2021, 08:16
Ma guarda che stiamo dicendo le stesse cose con parole diverse. Queste cose che mi dici le ho riportate anche nei miei post precedenti. LE conosco benissimo. PEr quanto riguarda Oled, so benissimo che ha Gsync, mi riferivo io rispondendo ad altro utente, in relazione ad altre TV su 800 euro. Conosco perfettamente il valore dell'Oled TV, ma per il gaming non lo ritengo pratico se non in salotto, altrimenti invece di prendermi un Predator da 1000 Euro 21:9, avrei preso senza grossi problemi un Oled:) . Il nanocell LG lo presi solo perchè mi trovai davanti ad un'offerta con ultimo esemplare, e per 490 Euro fu un affarone per un 4k 120hz. Cercavo un monitor 4k 120hz per la mia 3080, quindi presi l'occasione al volo. Attualmente è collegato al mio pc con una cavo HDMI da interno muro ed è appeso sulla parte opposta a dove tengo il pc. Onestamente lo uso pochissimo per giocare perchè il 3440 x1440p a 180 hz Predator mi soddisfa molto di più su desktop. Se avessi dovuto scegliere una TV per per godermi cinema di alta qualità sul divano, avrei acquistato senza indugi un Oled. MA ancora mi va bene il mio vecchio TV che ho in salotto. Per i pochi titoli che gioco su 4k 120 hz per me va benissimo il Nanocell 886, compatibile Gsync e con una buonissima accuratezza del colore, buon livellamento dei neri, un contrasto decente. Metterlo a confronto con Oled è inutile perchè stiamo parlando di altra tecnologia e altra fascia di prezzo.
Ahhh ok ok a posto :)
Poi si, dipende davvero tanto da quello che uno cerca. Per me la qualità di visione è importantissima anche nei videogiochi, visto che faccio molti Single player. Poi c'è quel problema che una volta che provi oled, tornare ai led è davvero dura :)
Ahhh ok ok a posto :)
Poi si, dipende davvero tanto da quello che uno cerca. Per me la qualità di visione è importantissima anche nei videogiochi, visto che faccio molti Single player. Poi c'è quel problema che una volta che provi oled, tornare ai led è davvero dura :)
La qualità immagine Oled non si discute. Se una persona utilizza prevalentemente la tv per giocare e non è interessato al gaming su desktop, consiglierei senza dubbio Oled
GeForce hotfix display driver version 496.98 is based on our latest Game Ready Driver 496.76.
LINK (https://nvidia.custhelp.com/app/answers/detail/a_id/5281)
The hotfix addresses the following issues:
[YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback. [3420164]
[Notebook]: Black screen may be observed on some Optimus notebooks with 1440p/165hz panels when in discrete GPU mode [3426730]
Games do not launch correctly on GeForce GTX 750 Ti when NVIDIA Image Scaling is enabled [3442778]
Using Adaptive Vertical Sync while G-SYNC is enabled may result in random black screen [3437003]
[Red Dead Redemption 2/Doom Eternal]: The game crashes with TDR or the system crashes while running the game. [200766423]
caldamente consigliato soprattutto per il problema risolto di YouTube.... io l'ho avuto.
Io ho avuto crash su RDR2 inspiegabili
Se riesco a prendere un po' di pace dovrei riaffacciarmi sul mio PC dopo alcuni mesi di pausa, domanda secca: passo a Windows 11 ? oppure è ancora prematuro ? Sabato avrò tempo per smanettare; provo l'aggiornamento da win 10 oppure un istallazione ex novo da zero ?
Grazie per varie ed eventuali :mc:
razor820
25-11-2021, 09:15
GeForce hotfix display driver version 496.98 is based on our latest Game Ready Driver 496.76.
LINK (https://nvidia.custhelp.com/app/answers/detail/a_id/5281)
The hotfix addresses the following issues:
[YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback. [3420164]
[Notebook]: Black screen may be observed on some Optimus notebooks with 1440p/165hz panels when in discrete GPU mode [3426730]
Games do not launch correctly on GeForce GTX 750 Ti when NVIDIA Image Scaling is enabled [3442778]
Using Adaptive Vertical Sync while G-SYNC is enabled may result in random black screen [3437003]
[Red Dead Redemption 2/Doom Eternal]: The game crashes with TDR or the system crashes while running the game. [200766423]
caldamente consigliato soprattutto per il problema risolto di YouTube.... io l'ho avuto.
Sono i secondi hotfix per questi driver o sbaglio?
TigerTank
25-11-2021, 09:16
GeForce hotfix display driver version 496.98 is based on our latest Game Ready Driver 496.76.
LINK (https://nvidia.custhelp.com/app/answers/detail/a_id/5281)
The hotfix addresses the following issues:
[YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback. [3420164]
[Notebook]: Black screen may be observed on some Optimus notebooks with 1440p/165hz panels when in discrete GPU mode [3426730]
Games do not launch correctly on GeForce GTX 750 Ti when NVIDIA Image Scaling is enabled [3442778]
Using Adaptive Vertical Sync while G-SYNC is enabled may result in random black screen [3437003]
[Red Dead Redemption 2/Doom Eternal]: The game crashes with TDR or the system crashes while running the game. [200766423]
caldamente consigliato soprattutto per il problema risolto di YouTube.... io l'ho avuto.
Idem, successo anche a me con youtube su chrome.
Grazie :)
GeForce hotfix display driver version 496.98 is based on our latest Game Ready Driver 496.76.
LINK (https://nvidia.custhelp.com/app/answers/detail/a_id/5281)
The hotfix addresses the following issues:
[YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback. [3420164]
[Notebook]: Black screen may be observed on some Optimus notebooks with 1440p/165hz panels when in discrete GPU mode [3426730]
Games do not launch correctly on GeForce GTX 750 Ti when NVIDIA Image Scaling is enabled [3442778]
Using Adaptive Vertical Sync while G-SYNC is enabled may result in random black screen [3437003]
[Red Dead Redemption 2/Doom Eternal]: The game crashes with TDR or the system crashes while running the game. [200766423]
caldamente consigliato soprattutto per il problema risolto di YouTube.... io l'ho avuto.
su geforce experience ancora non risultava aggiornabile
Se riesco a prendere un po' di pace dovrei riaffacciarmi sul mio PC dopo alcuni mesi di pausa, domanda secca: passo a Windows 11 ? oppure è ancora prematuro ? Sabato avrò tempo per smanettare; provo l'aggiornamento da win 10 oppure un istallazione ex novo da zero ?
Grazie per varie ed eventuali :mc:
Io ancora sono su win 10, installerò win 11 tra qualche mese, quando i bug maggiori saranno superati. Io aggiornerei win10 il più possibile e poi più in là passerei a 11
Thunder-74
25-11-2021, 10:59
Sono i secondi hotfix per questi driver o sbaglio?
esatto
su geforce experience ancora non risultava aggiornabile
gli hotfix devono essere scaricati direttamente, non fanno parte del circuito degli aggiornamenti automatici. Vengono postati nel forum nVidia da Manual Guzman
Prego Tiger ;)
fraussantin
25-11-2021, 11:26
esatto
gli hotfix devono essere scaricati direttamente, non fanno parte del circuito degli aggiornamenti automatici. Vengono postati nel forum nVidia da Manual Guzman
Prego Tiger ;)Vai grazie , dopo li metto vediamo se mi compare quel coso del dlss nuovo
Edit niente , mi rimane quello vecchio con la sola nitidezza
Vabbè alla prossima release ufficiale faccio ddu
esatto
gli hotfix devono essere scaricati direttamente, non fanno parte del circuito degli aggiornamenti automatici. Vengono postati nel forum nVidia da Manual Guzman
Prego Tiger ;)
Ah non lo sapevo! Grazie mille del link allora!!:) :)
TigerTank
26-11-2021, 14:13
Ma le Nvidia T da workstation provate/usate come schede da gaming "di emergenza"? :D
LINK (https://www.youtube.com/watch?v=qD9ep7Q-o44&list=RDCMUCUzjKyS5r72bfvPkA6GxpRg&start_radio=1).
La T600 costa sulle 200€(e la T1000 400€ o anche meno) :asd:
mikael84
26-11-2021, 14:51
Ma le Nvidia T da workstation provate/usate come schede da gaming "di emergenza"? :D
LINK (https://www.youtube.com/watch?v=qD9ep7Q-o44&list=RDCMUCUzjKyS5r72bfvPkA6GxpRg&start_radio=1).
La T600 costa sulle 200€(e la T1000 400€ o anche meno) :asd:
Soluzione intrigante, se non sapessi cosa c'è dentro.:sofico:
La T1000 è una 1650 liscia con boost a 1300 e memorie da 10 GT/S (il ratio delle gddr5x)
La T400 è una devastazione della stessa.:)
TigerTank
26-11-2021, 15:15
Soluzione intrigante, se non sapessi cosa c'è dentro.:sofico:
La T1000 è una 1650 liscia con boost a 1300 e memorie da 10 GT/S (il ratio delle gddr5x)
La T400 è una devastazione della stessa.:)
Esatto Mike, la T1000 la equiparano proprio alla 1650 in prestazioni da gaming. Togliendo però un tot. dovuto alla dissipazione non pensata di sicuro per giocare :)
Però a 200-400€ di questi tempi... :asd:
FrancoBit
26-11-2021, 15:20
Soluzione intrigante, se non sapessi cosa c'è dentro.:sofico:
La T1000 è una 1650 liscia con boost a 1300 e memorie da 10 GT/S (il ratio delle gddr5x)
La T400 è una devastazione della stessa.:)
Sarebbe un po' come tentare di farti mangiare un burger vegetariano :eek:
TigerTank
26-11-2021, 15:25
Sarebbe un po' come tentare di farti mangiare un burger vegetariano :eek:
Ahahah eh appunto, se mancasse la carne mangeresti anche quello :sofico:
mikael84
26-11-2021, 15:30
Esatto Mike, la T1000 la equiparano proprio alla 1650 in prestazioni da gaming. Togliendo però un tot. dovuto alla dissipazione non pensata di sicuro per giocare :)
Però a 200-400€ di questi tempi... :asd:
Che tristezza, 400 euro una 1650 liscia che mi downclocka a 1300.:asd:
Da Meteor lake in su, finalmente metteranno integrate decenti, ad oggi piuttosto mi metto un ryzen5700g e gioco con l'integrata, tanto in fin dei conti per giocare sono inadatte entrambe.:)
Sarebbe un po' come tentare di farti mangiare un burger vegetariano :eek:
Vade retro.:D
TigerTank
26-11-2021, 15:41
Dai sempre meglio delle GT710/730 tornate anch'esse in auge in questi tempi di crisi. Sarebbero hamburgers di cartone :D
Ragazzi ma è normale che la mia RTX3070 schizzi a 86° con Metro Exodux?
Ho addirittura il monitor che arriva max 60fps, l'OSD mi dice fisso 60 ma non vorrei che non ci fosse il limite e la RTX va sempre al massimo.
Qual'è la temperatura consigliata per la mia scheda video? (no è occata)
Fabio
devil_mcry
26-11-2021, 22:11
Ragazzi ma è normale che la mia RTX3070 schizzi a 86° con Metro Exodux?
Ho addirittura il monitor che arriva max 60fps, l'OSD mi dice fisso 60 ma non vorrei che non ci fosse il limite e la RTX va sempre al massimo.
Qual'è la temperatura consigliata per la mia scheda video? (no è occata)
Fabio
la mia asus dual a 1900mhz scalda in generale molto meno, mi pare 65 gradi massimo
mi sembrano altina la temperatura
devil_mcry
26-11-2021, 22:13
Che tristezza, 400 euro una 1650 liscia che mi downclocka a 1300.:asd:
Da Meteor lake in su, finalmente metteranno integrate decenti, ad oggi piuttosto mi metto un ryzen5700g e gioco con l'integrata, tanto in fin dei conti per giocare sono inadatte entrambe.:)
Vade retro.:D
posso chiederti una cosa? ma invece parlando di bios, se io volessi mettere il bios della 3070 dual oc sulla mia 3070 dual normale, come faccio a capire se è compatibile? non è una cosa urgente ma ho visto che ha il tdp massimo a 270 mentre il mio è 242
fraussantin
26-11-2021, 22:13
avete qualche idea di come togliere lo stutter a days gone?
l'ho migliorato un limitando il framerate con rivatuner invece che dal gioco , ho provato a lanciarlo da admin ( non serve a niente) ma un po rimane.
c'è qualche opzione killer?
Originariamente inviato da Nidios Guarda i messaggi
Ragazzi ma è normale che la mia RTX3070 schizzi a 86° con Metro Exodux?
Ho addirittura il monitor che arriva max 60fps, l'OSD mi dice fisso 60 ma non vorrei che non ci fosse il limite e la RTX va sempre al massimo.
Qual'è la temperatura consigliata per la mia scheda video? (no è occata)
Fabio
la mia asus dual a 1900mhz scalda in generale molto meno, mi pare 65 gradi massimo
mi sembrano altina la temperatura
Invece su Control con tutto al max e mi oscilla sui 55/57 fps la temperatura non supera i 74°
Metro exodus me la fa schiattare
mikael84
27-11-2021, 00:05
posso chiederti una cosa? ma invece parlando di bios, se io volessi mettere il bios della 3070 dual oc sulla mia 3070 dual normale, come faccio a capire se è compatibile? non è una cosa urgente ma ho visto che ha il tdp massimo a 270 mentre il mio è 242
E'la stessa scheda, non cambia nulla, certo che puoi. :)
Nella OC cambia solo il boost a 1770 di base.
Ragazzi ma è normale che la mia RTX3070 schizzi a 86° con Metro Exodux?
Ho addirittura il monitor che arriva max 60fps, l'OSD mi dice fisso 60 ma non vorrei che non ci fosse il limite e la RTX va sempre al massimo.
Qual'è la temperatura consigliata per la mia scheda video? (no è occata)
Fabio
Si è troppissimo. Domande. Che scheda hai? Che Case hai? Tutto stock le ventole della scheda?
avete qualche idea di come togliere lo stutter a days gone?
l'ho migliorato un limitando il framerate con rivatuner invece che dal gioco , ho provato a lanciarlo da admin ( non serve a niente) ma un po rimane.
c'è qualche opzione killer?
https://steamcommunity.com/app/1259420/discussions/0/3113655160532461028/ hai dato un occhiata? Pare essere comune sia a piedi che in moto. Per horizon, altro port ps, sono serviti 6 mesi e un sacco di patch prima che sistemassero lo stuttering per sempre.
devil_mcry
27-11-2021, 09:48
E'la stessa scheda, non cambia nulla, certo che puoi. :)
Nella OC cambia solo il boost a 1770 di base.
mi sa che in futuro swappo allora XD
Invece su Control con tutto al max e mi oscilla sui 55/57 fps la temperatura non supera i 74°
Metro exodus me la fa schiattare
è strano, tra l’altro con quelle temperature il boost lo sega di brutto
MikkiClock
27-11-2021, 10:24
edit
Cutter90
27-11-2021, 10:38
Domanda. Il dlss di ACC è la 2.2. Se metto manualmente la 2.3.4 che dovrebbe essere l'ultima è una cosa che funziona? Cioè, si aggiorna così il dlss?
bronzodiriace
27-11-2021, 10:55
Domanda. Il dlss di ACC è la 2.2. Se metto manualmente la 2.3.4 che dovrebbe essere l'ultima è una cosa che funziona? Cioè, si aggiorna così il dlss?Si, nel caso notassi glitch come ghosting o altro rimetti l'originale
Inviato dal mio MAR-LX1A utilizzando Tapatalk
MikkiClock
27-11-2021, 14:23
Ho un problema, ho scaricato nvflash nelle versioni: nvflash_5.541.0, nvflash64_patched_5.527.0, NVFlash_Certs_Bypassed_v5.287_x64, nvflash_5.715, nvflash_5.692, nvflash_5.590.0, nvflash_5.560.0 e ho provato, dopo aver salvato il firmware originale con gpu-z, con tutte le versioni a flashare la mia asus tuf rtx 3070 gaming oc con il bios della sorella maggiore Asus rog strix rtx 3070 gaming oc, le schede per quello che riguarda la piastra I/O e l'alimentazione con due pciex sono praticamente gemelle i due firmware hanno le stesse dimensioni (976kb) e differiscono solo per il nome del file Asus.RTX3070.8192.200910_1.rom per la rog e Asus.RTX3070.8192.200924.rom per la mia, il firm della rog strix l' ho preso dal database di techpowerups.
Ma non ci sono riuscito:doh: dopo aver disattivato in gestione periferiche la scheda quando provo a lanciare da cmd.exe aperto come admin qualsiasi comando, il primo che lancio è --protectoff, mi restituisce "no NVIDIA display adapter found" e non posso proseguire, solo al primo tentativo con la ver. 5.541.0 mi ha fatto il --protectoff senza errore ma quando tento di flashare il firmware mi da sempre "no NVIDIA display adapter found" Ho spulciato pagine e pagine di forum italiani e stranieri senza trovare nulla di utile a risolvere. Negli screen shot si vede che la scheda video viene listata con il comando --lspci ma non viene trovata con il comando --list Può qualcuno darmi una mano? Allego immagini.
Edit: risolto con nvflash_5.660.0
https://i.ibb.co/vjZCM4M/gpu-z.png (https://imgbb.com/)
amon.akira
27-11-2021, 15:18
Ho un problema, ho scaricato nvflash nelle versioni: nvflash_5.541.0, nvflash64_patched_5.527.0, NVFlash_Certs_Bypassed_v5.287_x64, nvflash_5.715, nvflash_5.692, nvflash_5.590.0, nvflash_5.560.0 e ho provato, dopo aver salvato il firmware originale con gpu-z, con tutte le versioni a flashare la mia asus tuf rtx 3070 gaming oc con il bios della sorella maggiore Asus rog strix rtx 3070 gaming oc, le schede per quello che riguarda la piastra I/O e l'alimentazione con due pciex sono praticamente gemelle i due firmware hanno le stesse dimensioni (976kb) e differiscono solo per il nome del file Asus.RTX3070.8192.200910_1.rom per la rog e Asus.RTX3070.8192.200924.rom per la mia, il firm della rog strix l' ho preso dal database di techpowerups.
Ma non ci sono riuscito:doh: dopo aver disattivato in gestione periferiche la scheda quando provo a lanciare da cmd.exe aperto come admin qualsiasi comando, il primo che lancio è --protectoff, mi restituisce "no NVIDIA display adapter found" e non posso proseguire, solo al primo tentativo con la ver. 5.541.0 mi ha fatto il --protectoff senza errore ma quando tento di flashare il firmware mi da sempre "no NVIDIA display adapter found" Ho spulciato pagine e pagine di forum italiani e stranieri senza trovare nulla di utile a risolvere. Negli screen shot si vede che la scheda video viene listata con il comando --lspci ma non viene trovata con il comando --list Può qualcuno darmi una mano? Allego immagini.
Edit: risolto con nvflash_5.660.0
https://i.ibb.co/vjZCM4M/gpu-z.png (https://imgbb.com/)
prova nvflash -6 nomebios, altrimenti dovresti indicare id della gpu
MikkiClock
27-11-2021, 15:46
prova nvflash -6 nomebios, altrimenti dovresti indicare id della gpu
Grazie per l'interessamento, ho risolto con la versione nvflash_5.660.0 una delle poche versioni che non avevo scaricato e provato, flashato bios della strix rtx 3070 OC e
tutto ok
è strano, tra l’altro con quelle temperature il boost lo sega di brutto
La scheda è in firma... senza OC, il case è un midtower
Corsair 100R_Silent con aggiunta di ventola superiore per estrazione aria.
Fabio
Alekos Panagulis
28-11-2021, 07:00
La scheda è in firma... senza OC, il case è un midtower
Corsair 100R_Silent con aggiunta di ventola superiore per estrazione aria.
FabioSinceramente quel case sembra un forno... assolutamente da cambiare imho.
Inviato dal mio IN2023 utilizzando Tapatalk
Si si te lo confermo, quando avevo la RX5700 andava in sofferenza e difatti ho provveduto a modificarlo bucando la parte superio per mettere una bella ventola per l'estrazione. Mi sembrava apposto con questa modifica ma con la RTX adesso le temperature sono ancora alte. Proverò a tenere il case aperto per capire se la colpa è sua e poi vi saprò dire.
Fabio
Alekos Panagulis
28-11-2021, 08:35
Si si te lo confermo, quando avevo la RX5700 andava in sofferenza e difatti ho provveduto a modificarlo bucando la parte superio per mettere una bella ventola per l'estrazione. Mi sembrava apposto con questa modifica ma con la RTX adesso le temperature sono ancora alte. Proverò a tenere il case aperto per capire se la colpa è sua e poi vi saprò dire.
FabioPiù che estrazione io farei immissione....
Cmq si, prova senza la paratia. In ogni caso oggi con pochi soldi ti porti a casa un signor case mesh.
Inviato dal mio IN2023 utilizzando Tapatalk
In realtà il Corsair 100R_Silent è composto cosi:
N° 2 ventole Frontali da 140 in immissione
N° 1 ventola Posteriore da 120 in estrazione
Io ho aggiunto 1 da 120 nella parte superiore in estrazione.
Tenendo in considerazione che la RTX è in estrazione forse meglio mettere quella che ho aggiunto in emissione.
Ci provo, mi toccherà mettere un filtro d'aria
Fabio
amon.akira
28-11-2021, 22:32
In realtà il Corsair 100R_Silent è composto cosi:
N° 2 ventole Frontali da 140 in immissione
N° 1 ventola Posteriore da 120 in estrazione
Io ho aggiunto 1 da 120 nella parte superiore in estrazione.
Tenendo in considerazione che la RTX è in estrazione forse meglio mettere quella che ho aggiunto in emissione.
Ci provo, mi toccherà mettere un filtro d'aria
Fabio
togli la paratia e fai un test, vedrai la notte col giorno imho
Ma certo era la prima cosa che ho fatto dall'injzio, stando sui 65/68° costanti. Ma le prove le devo fare con paratia chiusa e capire come meglio gestire i flussi del case.
Fabio
Più che estrazione io farei immissione....
Cmq si, prova senza la paratia. In ogni caso oggi con pochi soldi ti porti a casa un signor case mesh.
Inviato dal mio IN2023 utilizzando Tapatalk
Non e' un controsenso fare l'immissione dall'alto? Mi sembra piu' furbo farci l'estrazione visto che il calore tende a salire.
sertopica
29-11-2021, 16:25
Avete letto dei primitives e dei mesh shaders supportati dalle dx12 ultimate? 3dmark ha recentemente implementato un test scaricabile gratuitamente che poi diventa parte integrante della suite.
Il loro utilizzo porterebbe a incrementi prestazionali pazzeschi:
https://videocardz.com/newz/ul-releases-3dmark-mesh-shaders-feature-test-first-results-of-nvidia-ampere-and-amd-rdna2-gpus
La notizia e' un po' vecchia ma io non ne sapevo nulla. :asd:
TigerTank
30-11-2021, 09:36
Per Mike in primis: la T1000 (https://www.youtube.com/watch?v=torNoHC0tEQ) in gaming :sofico:
mikael84
30-11-2021, 15:09
Per Mike in primis: la T1000 (https://www.youtube.com/watch?v=torNoHC0tEQ) in gaming :sofico:
Una 1650 liscia downclockata in banda e clock. Affarone.:p
Cmq fa quasi ridere che ci siano modelli di quadro, a pari prezzo delle schede gaming.
Ho visto la RTXA4000 (3070ti con 16gb) a 1300 e sempre disponibile.
Al prossimo giro, andremmo direttamente di quadro.:sofico:
archaon89x
01-12-2021, 10:35
ciao ragazzi, dopo anni sto testando il g-sync compatibile del mio monitor anche se non è certificato.
leggendo in giro ho settato il pannello nvidia abilitando il g-sync solo per schermo intero, poi ho abilitato il v-sync e messo il blocco dei fps a 141e devo dire che adesso Doom Eternal giara una meraviglia prima facevo troppi fps con la 3080ti
è la migliore impostazione possibile? la lascio come predefinita o l'imposto per i giochi che superano il refresh del mio monitor e in questo caso lascio solo il g-sync attivo?
TigerTank
01-12-2021, 11:36
Una 1650 liscia downclockata in banda e clock. Affarone.:p
Cmq fa quasi ridere che ci siano modelli di quadro, a pari prezzo delle schede gaming.
Ho visto la RTXA4000 (3070ti con 16gb) a 1300 e sempre disponibile.
Al prossimo giro, andremmo direttamente di quadro.:sofico:
Ahahahah vero :asd:
ciao ragazzi, dopo anni sto testando il g-sync compatibile del mio monitor anche se non è certificato.
leggendo in giro ho settato il pannello nvidia abilitando il g-sync solo per schermo intero, poi ho abilitato il v-sync e messo il blocco dei fps a 141e devo dire che adesso Doom Eternal giara una meraviglia prima facevo troppi fps con la 3080ti
è la migliore impostazione possibile? la lascio come predefinita o l'imposto per i giochi che superano il refresh del mio monitor e in questo caso lascio solo il g-sync attivo?
Ci sono 3 situazioni che puoi provare:
1)gsync + vsync attivi da pannello nvidia.
2)gsync + frame limiter(da pannello nvidia, eventualmente da gioco stesso o da RTSS di afterburner) poco sotto la soglia. In tal caso il vsync puoi anche lasciarlo disattivato.
3)Con i giochi dx11(o dx9) puoi provare gsync+vsync + latenza ultra(che limita automaticamente il framerate un poco sotto la soglia).
4)Se vuoi provare a sparare gli FPS oltre puoi anche provare gsync + vsync settato su "Veloce" ed eventuale frame limiter più alto.
Nei giochi disattiva sempre il vsync ed eventuali opzioni tipo triple buffering.
nickname88
01-12-2021, 11:55
Ma certo era la prima cosa che ho fatto dall'injzio, stando sui 65/68° costanti. Ma le prove le devo fare con paratia chiusa e capire come meglio gestire i flussi del case.
FabioC'è ben poco da capire.
Sul frontale e/o dal fondo deve avvenire l'immissione e dal retro e/o dal top l'estrazione.
Se il tuo è già così non puoi fare molto altro, se non cambiare le ventole che al massimo ti faran guadagnare una manciatina di gradi.
Hai speso tanti soldi per la configurazione e poi ha preso un case al risparmio ?
archaon89x
01-12-2021, 13:37
Ahahahah vero :asd:
Ci sono 3 situazioni che puoi provare:
1)gsync + vsync attivi da pannello nvidia.
2)gsync + frame limiter(da pannello nvidia, eventualmente da gioco stesso o da RTSS di afterburner) poco sotto la soglia. In tal caso il vsync puoi anche lasciarlo disattivato.
3)Con i giochi dx11(o dx9) puoi provare gsync+vsync + latenza ultra(che limita automaticamente il framerate un poco sotto la soglia).
4)Se vuoi provare a sparare gli FPS oltre puoi anche provare gsync + vsync settato su "Veloce" ed eventuale frame limiter più alto.
Nei giochi disattiva sempre il vsync ed eventuali opzioni tipo triple buffering.
grazie, faccio queste prove
amon.akira
01-12-2021, 16:10
NVIDIA GeForce Game Ready 497.09 WHQL (https://videocardz.com/driver/nvidia-geforce-game-ready-497-09-whql)
New Games Supported By GeForce Experience’s Optimal Settings
GeForce Experience’s one-click optimal settings enable you to instantly configure game options for your system’s hardware, giving you smooth, optimized gameplay. Over 1000 titles are supported, and since our last driver release we’ve added support for 5 more:
Farming Simulator 22
Halo Infinite
Inscryption
Ruined King: A League of Legends Story
Crab Game
Fixed Issues
[Red Dead Redemption 2/Doom Eternal]: The game crashes with TDR or the system crashes while running the game. [200766423]
[Doom 3 BFG Edition]: The games shows corruption upon launch. [3407653]
[YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback. [3420164]
[NVIDIA Image Scaling]: After performing a clean install or over install over version 496.49, NVIDIA Image Scaling resolutions do not appear in the game. [3434708]
Games do not launch correctly on GeForce GTX 750 Ti when NVIDIA Image Scaling is enabled. [3442778]
[Notebook]: Black screen may be observed on some Optimus notebooks with 1440p/165hz panels when in discrete GPU mode. [3426730]
[Notebook]: eDP panel cannot be lit when booting to the desktop after switching to discrete mode. [3423400]
Using Adaptive Vertical Sync while G-SYNC is enabled may result in random black screen. [3437003]
Known Issues
[Horizon Zero Dawn Complete Edition]: After attempting to change resolutions, the resolution does not change and the game falls out of IFlip mode. [3442862]
To apply the new resolution, press Alt+Tab.
[Supreme Command:Forged Alliance/Supreme Commander 2]: Performance drop when there is mouse movement. [3405920]
[Deathloop][HDR]: TDR/corruption occurs in the game with Windows HDR enabled.
If this issue occurs, toggle the Windows HDR setting.
Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
In multi-monitor configurations, the screen may display random black screen flicker./3405228]
[HDR][G-Sync]: Mouse pointer gets stuck after turning on HDR from the Windows Control Panel or after toggling G-Sync from the NVIDIA control panel. [200762998]
To work around, click the mouse (right or left button). The mouse cursor will be sluggish for a few seconds before returning to normal operation.
[NVIDIA Advanced Optimus][NVIDIA Control Panel]: After setting the display multiplexer type to “dGPU”, the setting is not preserved across a reboot or resume from S4. [200779758]
[NVIDIA Image Scaling][Desktop]: The screen moves to the upper left corner on cold boot when Image Scaling is applied to the desktop. [3424721]
Do not apply NVIDIA Image Scaling to the desktop. It is intended only for video upscaling or for games which do not run with a scaling resolution unless the same Image Scaling resolution is applied on the desktop.
[NVIDIA Image Scaling][DirectX 11 video apps]: With Image Scaling enabled, video playback is corrupted or results in a system hang after performing an HDR transition. [3431284]
If HDR is required to be toggled from the Microsoft Control Panel, be sure to switch to a different Image Scaling resolution.
razor820
01-12-2021, 16:25
NVIDIA GeForce Game Ready 497.09 WHQL (https://videocardz.com/driver/nvidia-geforce-game-ready-497-09-whql)
New Games Supported By GeForce Experiences Optimal Settings
GeForce Experiences one-click optimal settings enable you to instantly configure game options for your systems hardware, giving you smooth, optimized gameplay. Over 1000 titles are supported, and since our last driver release weve added support for 5 more:
Farming Simulator 22
Halo Infinite
Inscryption
Ruined King: A League of Legends Story
Crab Game
Fixed Issues
[Red Dead Redemption 2/Doom Eternal]: The game crashes with TDR or the system crashes while running the game. [200766423]
[Doom 3 BFG Edition]: The games shows corruption upon launch. [3407653]
[YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback. [3420164]
[NVIDIA Image Scaling]: After performing a clean install or over install over version 496.49, NVIDIA Image Scaling resolutions do not appear in the game. [3434708]
Games do not launch correctly on GeForce GTX 750 Ti when NVIDIA Image Scaling is enabled. [3442778]
[Notebook]: Black screen may be observed on some Optimus notebooks with 1440p/165hz panels when in discrete GPU mode. [3426730]
[Notebook]: eDP panel cannot be lit when booting to the desktop after switching to discrete mode. [3423400]
Using Adaptive Vertical Sync while G-SYNC is enabled may result in random black screen. [3437003]
Known Issues
[Horizon Zero Dawn Complete Edition]: After attempting to change resolutions, the resolution does not change and the game falls out of IFlip mode. [3442862]
To apply the new resolution, press Alt+Tab.
[Supreme Command:Forged Alliance/Supreme Commander 2]: Performance drop when there is mouse movement. [3405920]
[Deathloop][HDR]: TDR/corruption occurs in the game with Windows HDR enabled.
If this issue occurs, toggle the Windows HDR setting.
Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
In multi-monitor configurations, the screen may display random black screen flicker./3405228]
[HDR][G-Sync]: Mouse pointer gets stuck after turning on HDR from the Windows Control Panel or after toggling G-Sync from the NVIDIA control panel. [200762998]
To work around, click the mouse (right or left button). The mouse cursor will be sluggish for a few seconds before returning to normal operation.
[NVIDIA Advanced Optimus][NVIDIA Control Panel]: After setting the display multiplexer type to dGPU, the setting is not preserved across a reboot or resume from S4. [200779758]
[NVIDIA Image Scaling][Desktop]: The screen moves to the upper left corner on cold boot when Image Scaling is applied to the desktop. [3424721]
Do not apply NVIDIA Image Scaling to the desktop. It is intended only for video upscaling or for games which do not run with a scaling resolution unless the same Image Scaling resolution is applied on the desktop.
[NVIDIA Image Scaling][DirectX 11 video apps]: With Image Scaling enabled, video playback is corrupted or results in a system hang after performing an HDR transition. [3431284]
If HDR is required to be toggled from the Microsoft Control Panel, be sure to switch to a different Image Scaling resolution.
Speravo in qualche dicitura di bf2042, visto che sembrano rilasciati in contemporanea con la patch di domani. ma nada
TigerTank
01-12-2021, 17:38
Dai che tra un pò arriveremo al GB di drivers e stapperemo la bottiglia :D
Thunder-74
01-12-2021, 17:43
Speravo in qualche dicitura di bf2042, visto che sembrano rilasciati in contemporanea con la patch di domani. ma nada
la patch di domani sistema (in teoria) il troppo uso della CPU che causa bottleneck alla GPU.
MikkiClock
01-12-2021, 18:10
Dai che tra un pò arriveremo al GB di drivers e stapperemo la bottiglia :D
:ncomment: :asd:
(THE REAL) Neo
01-12-2021, 19:35
Dai che tra un pò arriveremo al GB di drivers e stapperemo la bottiglia :DTu scherzi,ma non manca molto...
🤣
devil_mcry
01-12-2021, 19:56
domanda, ho continuato a smanettare
la mia gpu ora si comporta così :
720p low resolution (per testare il max boost) 2055 di picco con assestamento a 2040mhz
4k optimized (per testare il massimo carico) sui 1950mhz
che dite? 2055mhz di picco è abbastanza safe per la stabilità? poi tanto gioco comunque a risoluzioni più alte, ho visto che biomutant in 4k ad esempio sta sui 2025
PS: uso il c9 da 2 anni su pc in maniera assidua. Con qualche accortezza (programmino per nascondere le icone, screen saver ecc ecc), per ora nessun tipo di problema. Il burn in nelle nuove serie è molto più difficile da riscontrare che in passato.
Ciao, mi hai incuriosito, dato che a giorni mi arriva l'oled LG C15 55', e lo uso per PC game e tv, questo programmino nascondi icone quale sarebbe ?
Ho un pó di pensieri su questo burn in anche se leggo essere ormai difficile da far comparire :rolleyes:
Grazie :)
Cutter90
02-12-2021, 06:49
Ciao, mi hai incuriosito, dato che a giorni mi arriva l'oled LG C15 55', e lo uso per PC game e tv, questo programmino nascondi icone quale sarebbe ?
Ho un pó di pensieri su questo burn in anche se leggo essere ormai difficile da far comparire :rolleyes:
Grazie :)
https://www.softwareok.com/?seite=Microsoft/AutoHideDesktopIcons
Questo. In pratica dopo tot secondi che imposti tu, sparisce tutto quello che di statico c'è sul desktop. lo uso da mesi ormai e funziona benissimo.
Sul burn in, basta che non lo usi per fare smartworking con word o barre di navigazione aperte 8 ore al giorno e sei a posto:)
devil_mcry
02-12-2021, 08:05
Io anno prossimo passo all'oled, vediamo come andrà. Ora per lavoro uso ubuntu che ha molto meno roba statica
fingercross
https://www.softwareok.com/?seite=Microsoft/AutoHideDesktopIcons
Questo. In pratica dopo tot secondi che imposti tu, sparisce tutto quello che di statico c'è sul desktop. lo uso da mesi ormai e funziona benissimo.
Sul burn in, basta che non lo usi per fare smartworking con word o barre di navigazione aperte 8 ore al giorno e sei a posto:)
Ottimo grazie, pare davvero utilissimo! Lo installo sicuro. Non intendo comunque usare il TV quale desktop, giusto il tempo di settare i giochi e poi via :fagiano:
Ottimo grazie, pare davvero utilissimo! Lo installo sicuro. Non intendo comunque usare il TV quale desktop, giusto il tempo di settare i giochi e poi via :fagiano:
Era quello che dicevo anch'io, poi invece...
Certo non aspettarti che l'uniformità del pannello sia perfetta dopo qualche anno, è fisiologico con tutti gli oled. In game e guardando film non si nota. Basta fare un refresh del pannello ogni tanto e sei a posto. LG 55 oled 2017 B7V usato da 4 anni come monitor multimedia e per girare su internet. Di solito tengo la luminosità al minimo quando giro su internet perché altrimenti mi abbronzo...
devil_mcry
02-12-2021, 09:21
Era quello che dicevo anch'io, poi invece...
Certo non aspettarti che l'uniformità del pannello sia perfetta dopo qualche anno, è fisiologico con tutti gli oled. In game e guardando film non si nota. Basta fare un refresh del pannello ogni tanto e sei a posto. LG 55 oled 2017 B7V usato da 4 anni come monitor multimedia e per girare su internet. Di solito tengo la luminosità al minimo quando giro su internet perché altrimenti mi abbronzo...
c'è da dire che la base da cui partono in generale è migliore dei fald, il mio non è "omogeneo" nemmeno da nuovo, inoltre dalla tua generazione ad oggi la durata spero sia migliorata
Io l'anno prossimo prendo l'evoluzione del g1 e via. quelli nuovi samsung sembrano anche interessanti ma è una tecnologia meno rodata vedremo
Cutter90
02-12-2021, 09:36
Era quello che dicevo anch'io, poi invece...
Certo non aspettarti che l'uniformità del pannello sia perfetta dopo qualche anno, è fisiologico con tutti gli oled. In game e guardando film non si nota. Basta fare un refresh del pannello ogni tanto e sei a posto. LG 55 oled 2017 B7V usato da 4 anni come monitor multimedia e per girare su internet. Di solito tengo la luminosità al minimo quando giro su internet perché altrimenti mi abbronzo...
L'oled perde in maniera progressiva luminosità, dovuta all'usura della componente organica di cui è costituito il pannello, ma in mnaiera assolutamente trascurabile e non visibile, nemmeno dopo 6-7 anni.
L'omogeneità invece dopo un primo periodo di assestamento (e con il passare dei cicli di pulizia automatici) migliora sensibilment6e dopo le 80-100 ore. E poi non peggiora.
La serie 7 è una serie "vecchia" per quello che riguarda sia la gestione dello stampaggio che dei metodi per prevenirlo. Dalla serie 9 in poi, infatti, lg ha implementato molte feature e ha adottato alcune accortezze e i casi di burn in sono calati drasticamente. Salvo guasti o casi estremi di utilizzo si può tranquillamente dire che il burn è un rischio ormai quasi inesistente.
L'oled perde in maniera progressiva luminosità, dovuta all'usura della componente organica di cui è costituito il pannello, ma in mnaiera assolutamente trascurabile e non visibile, nemmeno dopo 6-7 anni.
L'omogeneità invece dopo un primo periodo di assestamento (e con il passare dei cicli di pulizia automatici) migliora sensibilment6e dopo le 80-100 ore. E poi non peggiora.
La serie 7 è una serie "vecchia" per quello che riguarda sia la gestione dello stampaggio che dei metodi per prevenirlo. Dalla serie 9 in poi, infatti, lg ha implementato molte feature e ha adottato alcune accortezze e i casi di burn in sono calati drasticamente. Salvo guasti o casi estremi di utilizzo si può tranquillamente dire che il burn è un rischio ormai quasi inesistente.
comunque dopo quasi 4 anni 0 burn in, solo leggere sfumature su colori perfettamente uniformi.
Era quello che dicevo anch'io, poi invece...
Certo non aspettarti che l'uniformità del pannello sia perfetta dopo qualche anno, è fisiologico con tutti gli oled. In game e guardando film non si nota. Basta fare un refresh del pannello ogni tanto e sei a posto. LG 55 oled 2017 B7V usato da 4 anni come monitor multimedia e per girare su internet. Di solito tengo la luminosità al minimo quando giro su internet perché altrimenti mi abbronzo...
Il C1 ha una dotazione contro il burn piuttosto cazzuta, e questo, insieme alla compatibilità GSync e ai 120 hz mi ha convinto.
Nello specifico:
Pulizia pixel, attiva in automatico ogni 4 ore, basta tenere la corrente attiva.
Regolazione luminosa loghi fissi, ne attenua la luminosità in automatico.
Spostamento schermo, invisibile all'utente.
Poi i classici screen saver ecc.
E soprattutto un uso fatto con la testa collegata :stordita:
devil_mcry
02-12-2021, 18:09
Alla fine a 2ghz medi pare andare bene la mia 3070, sono abbastanza contento
fa 6-7 % in più di fps mi avvicino un po' di più al poter giocare in 4k
Cutter90
03-12-2021, 08:41
Il C1 ha una dotazione contro il burn piuttosto cazzuta, e questo, insieme alla compatibilità GSync e ai 120 hz mi ha convinto.
Nello specifico:
Pulizia pixel, attiva in automatico ogni 4 ore, basta tenere la corrente attiva.
Regolazione luminosa loghi fissi, ne attenua la luminosità in automatico.
Spostamento schermo, invisibile all'utente.
Poi i classici screen saver ecc.
E soprattutto un uso fatto con la testa collegata :stordita:
Esatto. Tutto inserito dalla serie 9 in poi.
Cmq stasera provo Bright memory infinite. vediamo com'è e quanto mi fa sbavare. Ha il bench integrato mi pare
NIS
Questo NIS è strano, a me non funziona come dovrebbe.
Intanto le risoluzioni custom che mi genera mi si fissano tutte a 30 hz, inutilizzabili. :confused:
Secondo punto, l'icona NIS in alto allo schermo mi rimane verde anche se dal game, seleziono 3840x2160 e non la risoluzione custom scalata. Quindi cosa starebbe riscalando ?
La nitidezza che porta in seno a me sembra diversa dalla precedente, eliminata, dal driver.
L'unico modo per avere, oggi, un effetto di nitidezza è attivare lo scaling della risoluzione ? Bho sono dubbioso su questo cambio di rotta, era meglio gestita prima sinceramente.
Thunder-74
03-12-2021, 11:28
MSI AfterBurner 4.6.4 Final
LINK (https://www.guru3d.com/news-story/download-msi-afterburtner-4-6-4-final.html)
Added new MSI Windows 11 themed skins (Light and Dark editions) by Drerex design
Added voltage control for reference design AMD RADEON RX 6700 XT series graphics cards
Added experimental support for Intel 11th generation CPUs
Added experimental support for Intel 12th generation CPUs
Added experimental support for mobile AMD Ryzen CPUs
Fixed issue with missing memory temperature sensor on AMD RADEON 5700 / 5700 XT series graphics cards
Fixed issue which could prevent MSI Afterburner from opening from tray via main application icon after accessing properties via clicking monitoring tray icon
Increased memory overclocking limit for NVIDIA GeForce RTX 30x0 series graphics cards
Added workaround for internal DirectInput issue, which could cause hotkey handler to stop processing hotkeys correctly after locking/unlocking PC from keyboard with <Ctrl>+<Alt>+<Del> or <Win>+<L>. To bypass it MSI Afterburner is resetting hotkey handler state after lock screen transition now
Optimized monitoring profiles switching implementation for situations when profiles contain different sets of data sources displayed in monitoring tray icons
Application tray icon is DPI aware now:
OS level tray icons scaling is disabled now to prevent tray icon text distortion. Power users may revert back to the previous DPI unaware tray icon rendering mode via configuration file if necessary
Added new bigger tray icon fonts for >=150% and >=200% DPI scaling ratios. Power users may also select tray icon font independently of selected DPI scaling ratio via configuration file if necessary
Application installer is DPI aware now
RivaTuner Statistics Server has been upgraded to v7.3.3
Cutter90
03-12-2021, 14:11
Increased memory overclocking limit for NVIDIA GeForce RTX 30x0 series graphics cards
:eek:
TigerTank
03-12-2021, 14:15
MSI AfterBurner 4.6.4 Final
LINK (https://www.guru3d.com/news-story/download-msi-afterburtner-4-6-4-final.html)
Added new MSI Windows 11 themed skins (Light and Dark editions) by Drerex design
Added voltage control for reference design AMD RADEON RX 6700 XT series graphics cards
Added experimental support for Intel 11th generation CPUs
Added experimental support for Intel 12th generation CPUs
Added experimental support for mobile AMD Ryzen CPUs
Fixed issue with missing memory temperature sensor on AMD RADEON 5700 / 5700 XT series graphics cards
Fixed issue which could prevent MSI Afterburner from opening from tray via main application icon after accessing properties via clicking monitoring tray icon
Increased memory overclocking limit for NVIDIA GeForce RTX 30x0 series graphics cards
Added workaround for internal DirectInput issue, which could cause hotkey handler to stop processing hotkeys correctly after locking/unlocking PC from keyboard with <Ctrl>+<Alt>+<Del> or <Win>+<L>. To bypass it MSI Afterburner is resetting hotkey handler state after lock screen transition now
Optimized monitoring profiles switching implementation for situations when profiles contain different sets of data sources displayed in monitoring tray icons
Application tray icon is DPI aware now:
OS level tray icons scaling is disabled now to prevent tray icon text distortion. Power users may revert back to the previous DPI unaware tray icon rendering mode via configuration file if necessary
Added new bigger tray icon fonts for >=150% and >=200% DPI scaling ratios. Power users may also select tray icon font independently of selected DPI scaling ratio via configuration file if necessary
Application installer is DPI aware now
RivaTuner Statistics Server has been upgraded to v7.3.3
Grazie ;)
Il nuovo tema "windows 11" imho è bruttino...resto con il "Touch of Modern" che resta il mio preferito ad estetica ed interfaccia :)
devil_mcry
04-12-2021, 10:22
sto scaricando ma come mai dal sito msi scarica la vecchia beta?
EDIT
a me piace il tema w11 dark :D
TigerTank
04-12-2021, 15:42
Da nostalgico e approfittando del fatto che fosse in sconto, ho preso Diablo 2 Resurrected e nell'ultima patch hanno incluso il supporto al DLSS.
A me non servirebbe...perchè a 3440x1440(o meglio a 19:9, così limitato per questioni tecniche di visuale) mi tiene i 120fps fissi quasi sempre. Anche perchè ho disattivato il TAA(in quanto orrendamente blurroso) utilizzando invece l'SMAA maxato del reshade.
Sarebbe dunque più utile in 4K....però provando il DLSS(2.2.11) Qualità(+ un tocco di nitidezza in più dallo slider del gioco) ho notato che il tutto sembra più definito e migliore a livello di antialiasing. Rimuovendo dunque anche il reshade.
(THE REAL) Neo
04-12-2021, 17:32
sto scaricando ma come mai dal sito msi scarica la vecchia beta?
EDIT
a me piace il tema w11 dark :DMi chiedo sta cosa ogni volta...
Sniper88
04-12-2021, 19:22
Da nostalgico e approfittando del fatto che fosse in sconto, ho preso Diablo 2 Resurrected e nell'ultima patch hanno incluso il supporto al DLSS.
A me non servirebbe...perchè a 3440x1440(o meglio a 19:9, così limitato per questioni tecniche di visuale) mi tiene i 120fps fissi quasi sempre. Anche perchè ho disattivato il TAA(in quanto orrendamente blurroso) utilizzando invece l'SMAA maxato del reshade.
Sarebbe dunque più utile in 4K....però provando il DLSS(2.2.11) Qualità(+ un tocco di nitidezza in più dallo slider del gioco) ho notato che il tutto sembra più definito e migliore a livello di antialiasing. Rimuovendo dunque anche il reshade.
Interessante questa analisi, Tiger. Davvero interessante. Grazie! :cincin:
Scusate , non so se qualcuno di voi ci ha fatto caso, ma almeno sul mio pc dal driver successivo al 472.12, c'è un bug HDR. Questo bug lo controllo sempre con RE village, in tutti i driver successivi a questo , in HDR, riduce l'effetto luminanza e contrasto dando tutto un po' meno viso e lavato. Reinstallo il Driver 472.12 e tutto torna alla normalità. Pensavo che almeno l'ultimo driver avesse risolto questo problema, e invece sono dovuto tornare al 472.12. Sapete dirmi qualcosa di questo problema?
TigerTank
04-12-2021, 20:58
Interessante questa analisi, Tiger. Davvero interessante. Grazie! :cincin:
Figurati...solo la mia impressione visiva che alla fine segue quella successa già scritta da altri con altri giochi dove il tutto sembra rendere meglio in DLSS che con la nativa (come Death Stranding). Alla prossima sessione di gioco provo a metterci la 2.3.4 :D
Comunque alla fine non è male come Remastered per chi ama il genere, imho superiore a Diablo 3 e non è nemmeno un giochetto tanto leggero perchè da quel che vedo a 3440x1440 con DLSS qualità se tolgo il cap mi manda la scheda al 99% con un framerate sui 175 per cui in 4K si farebbe sentire anche con le nostre schede.
Sarebbe bello se ci mettessero un pò di ray tracing essendoci tanti effetti magici, di base è già predisposto essendo dx12 e appunto ora ha il DLSS :)
amon.akira
04-12-2021, 21:27
Scusate , non so se qualcuno di voi ci ha fatto caso, ma almeno sul mio pc dal driver successivo al 472.12, c'è un bug HDR. Questo bug lo controllo sempre con RE village, in tutti i driver successivi a questo , in HDR, riduce l'effetto luminanza e contrasto dando tutto un po' meno viso e lavato. Reinstallo il Driver 472.12 e tutto torna alla normalità. Pensavo che almeno l'ultimo driver avesse risolto questo problema, e invece sono dovuto tornare al 472.12. Sapete dirmi qualcosa di questo problema?
qui tutto ok, mica hai attivato autohdr?
qui tutto ok, mica hai attivato autohdr?
Non ho autoHDR su windows. Guarda è davvero stranissimo. Ora sono tornato al vecchio driver ed è fantastico....
amon.akira
04-12-2021, 21:53
Non ho autoHDR su windows. Guarda è davvero stranissimo. Ora sono tornato al vecchio driver ed è fantastico....
non saprei, io sono su w11...ti accadeva anche tipo su youtube hdr o solo game? cmq si, se con il vecchio driver risolvi resta cosi...immagino hai provato anche con ddu
non saprei, io sono su w11...ti accadeva anche tipo su youtube hdr o solo game? cmq si, se con il vecchio driver risolvi resta cosi...immagino hai provato anche con ddu
Diciamo che installo sempre i driver in modo pulito. Uso DDU solo la prima installazione della scheda, poi installazione pulita con software nvidia. Quello che ho ipotizzato è che essendo gli ultimi driver ottimizzati anche per Win11, non vorrei che sul Win10 possano dare di questi problemi. Non ricordo bene ma mi sembra che in Video era meno evidente, ma comunque c'era un depotenziamento delle caratteristiche HDR
TigerTank
04-12-2021, 22:19
Condivido un'informazione che magari può interessare.
In passato avevo parlato di un tizio che vendeva i pads specifici per la mia scheda con tanto di video e mi ero messo in lista per tali pads.
Stasera mi è arrivata comunicazione di apertura di un sito apposito il cui link si può vedere QUI (https://www.reddit.com/r/hardwareswap/comments/qca345/usail_h_extremely_high_conductivity_custom/) e ho visto che ci sono anche i kit specifici per 3080 e 3090 FE.
Il mio mi è costato $29 + $19.50 di spedizione(circa 43€ al cambio)...alla fine meno che andare alla bersagliera con i kit di pads su amazon o simili. Vedrò se mi arrivano :D
Condivido un'informazione che magari può interessare.
In passato avevo parlato di un tizio che vendeva i pads specifici per la mia scheda con tanto di video e mi ero messo in lista per tali pads.
Stasera mi è arrivata comunicazione di apertura di un sito apposito il cui link si può vedere QUI (https://www.reddit.com/r/hardwareswap/comments/qca345/usail_h_extremely_high_conductivity_custom/) e ho visto che ci sono anche i kit specifici per 3080 e 3090 FE.
Il mio mi è costato $29 + $19.50 di spedizione(circa 43€ al cambio)...alla fine meno che andare alla bersagliera con i kit di pads su amazon o simili. Vedrò se mi arrivano :D
Ottima notizia, mi sa che ci provo con la 3080 fe
non aggiorno da parecchio, 497.09 e 3070 riscontrati problemi? Grazie
Thunder-74
05-12-2021, 10:25
Forse qualcuno conosceva questa serie di tasti, io l'ho scoperto oggi..
Win+Shift+Ctrl+B
If you're encountering display or graphics issues, you can press Ctrl+Shift+Win+B to force Windows to take action. This shortcut alerts the system to a potential graphics issue, which results in Windows restarting your video driver. This might help you fix any graphical corruption you're seeing, without having to reboot your PC.
sostanzialmente se si hanno problemi video, con questa sequenza si riavvia il driver video senza riavviare il PC. Per un secondo diventa nero lo schermo e sentirete un bip. Ho provato
sertopica
05-12-2021, 10:50
Ma poi dopo il segnale acustico ritorna l'immagine o resta nero? :D
Scherzi a parte, vero funziona. Nel registro eventi viene visto come errore hardware.
Thunder-74
05-12-2021, 10:52
Ma poi dopo il segnale acustico ritorna l'immagine o resta nero? :D
no ti scrive che la tua 3080 è stata aggiornata in 3090 hahahahah
fraussantin
05-12-2021, 10:55
Forse qualcuno conosceva questa serie di tasti, io l'ho scoperto oggi..
Win+Shift+Ctrl+B
If you're encountering display or graphics issues, you can press Ctrl+Shift+Win+B to force Windows to take action. This shortcut alerts the system to a potential graphics issue, which results in Windows restarting your video driver. This might help you fix any graphical corruption you're seeing, without having to reboot your PC.
sostanzialmente se si hanno problemi video, con questa sequenza si riavvia il driver video senza riavviare il PC. Per un secondo diventa nero lo schermo e sentirete un bip. Ho provatoInteressante ...
Potrebbe tornare utile
Condivido un'informazione che magari può interessare.
In passato avevo parlato di un tizio che vendeva i pads specifici per la mia scheda con tanto di video e mi ero messo in lista per tali pads.
Stasera mi è arrivata comunicazione di apertura di un sito apposito il cui link si può vedere QUI (https://www.reddit.com/r/hardwareswap/comments/qca345/usail_h_extremely_high_conductivity_custom/) e ho visto che ci sono anche i kit specifici per 3080 e 3090 FE.
Il mio mi è costato $29 + $19.50 di spedizione(circa 43€ al cambio)...alla fine meno che andare alla bersagliera con i kit di pads su amazon o simili. Vedrò se mi arrivano :D
questa è un'ottima cosa. peccato che non vedo kit per 3080 ti FE :cry:
TigerTank
05-12-2021, 13:19
Ottima notizia, mi sa che ci provo con la 3080 fe
Mi sa che ci sono da pagare iva ed oneri salvo che li spedisca da privato a privato in quanto in tal caso c'è una franchigia fino ai 45€. Nel mio caso sono a quasi 43€ con le spedizioni incluse, per cui ho provato a chiedere se può spedirmeli come privato anche se non credo sia possibile in quanto ci sono ordine e relativo pagamento.
LINK (https://www.poste.it/costo-sdoganamento-spedizioni-estero.html).
O aspettate di vedere come va a finire a me e se mi arrivano :D :sperem:
questa è un'ottima cosa. peccato che non vedo kit per 3080 ti FE :cry:
Forse so il perchè...il tizio è un miner e probabilmente non li vende per le 3080Ti FE perchè di base si è fatto fare quelli specifici per le sue (probabilmente evga e 3080-3090FE, tutte non LHR) e la gente(presumibilmente altri miners in primis) ha iniziato a chiederglieli.
Mi sa che ci sono da pagare iva ed oneri salvo che li spedisca da privato a privato in quanto in tal caso c'è una franchigia fino ai 45€. Nel mio caso sono a quasi 43€ con le spedizioni incluse, per cui ho provato a chiedere se può spedirmeli come privato anche se non credo sia possibile in quanto ci sono ordine e relativo pagamento.
LINK (https://www.poste.it/costo-sdoganamento-spedizioni-estero.html).
O aspettate di vedere come va a finire a me e se mi arrivano :D :sperem:
Forse so il perchè...il tizio è un miner e probabilmente non li vende per le 3080Ti FE perchè di base si è fatto fare quelli specifici per le sue (probabilmente evga e 3080-3090FE, tutte non LHR) e la gente(presumibilmente altri miners in primis) ha iniziato a chiederglieli.
comunque prima di dare "l'allarme temp" provo la scheda nel pc nuovo, pensato per una config ad aria e credo (spero) di avere già miglioramenti. in ogni caso in undervolt e col grafico fan personalizzato non mi lamento. certo, se le vram stessero un po' più basse non mi farebbe schifo.
Un pò OT ma segnalo che finalmente OpenRGB supporta anche le VGA Asus serie 3XXX....:)
Link alla versione experimental che funziona:
https://gitlab.com/CalcProgrammer1/OpenRGB/-/jobs/artifacts/master/download?job=Windows%2064
Finalmente addio a quello schifo di Armory crate! :D
Cutter90
06-12-2021, 09:33
Bright memory Infinite se non avesse l'rt e il dlss di next gen non avrebbe assolutamente nulla.
Come gioco è carino, grandissimo CS, graficamente alti e bassi. Ha texture e una distruttibilità imbarazzanti. Eccellenti i particellari e clamorosa l'illuminazione. Con dlss quality sto tra i 70 e 90 fps tutto al max
devil_mcry
06-12-2021, 11:19
Ragazzi ma cos'è l'Hot Spot?
Ho notato che è molto alto come temperatura, 13° in più dal gpu temperature
Perchè se mi metto a giocare a lungo la gpu arriva a 85°, il mio case non è full atx e ha il radiatore in immissione, il problema però non è quello che ci può stare, ma l'hotspot è a 97
fraussantin
06-12-2021, 11:37
Ragazzi ma cos'è l'Hot Spot?
Ho notato che è molto alto come temperatura, 13° in più dal gpu temperatureIl punto più caldo nel die.( Di preciso non so, credo un collegamento di alimentazione interno , ma potrei aver detto una scemata)
Cmq È normale che sia molto caldo , sulle 5700xt mi ricordo oltre i 100 gradi era la norma
devil_mcry
06-12-2021, 11:40
Il punto più caldo nel die.( Di preciso non so, credo un collegamento di alimentazione interno , ma potrei aver detto una scemata)
Cmq È normale che sia molto caldo , sulle 5700xt mi ricordo oltre i 100 gradi era la norma
quindi averlo di picco a 97° posso stare sereno? la gpu scaldicchia ora con il bios da 270w, 85° a 2ghz quasi sempre costanti, ma non ho downvoltato per non rischiare di essere instabile e dover fare troppi test.
considerando il case ci sta, ma l'hotspot a 97 mi ansia un pochetto :D
StylezZz`
06-12-2021, 11:40
Cmq È normale che sia molto caldo , sulle 5700xt mi ricordo oltre i 100 gradi era la norma
110° sulla mia vecchia 5700 XT in piena estate :asd:
fraussantin
06-12-2021, 11:57
quindi averlo di picco a 97° posso stare sereno? la gpu scaldicchia ora con il bios da 270w, 85° a 2ghz quasi sempre costanti, ma non ho downvoltato per non rischiare di essere instabile e dover fare troppi test.
considerando il case ci sta, ma l'hotspot a 97 mi ansia un pochetto :DOra non ti so dire onestamente , sulla mia non è mai arrivato così alto ( mi pare di aver visto 90ma di solito è meno ) nel caso cmq dovrebbe andare in throttling la scheda se troppo alto , cioè i sensori li mettono per quel motivo
Nel caso un pochino di UV ci sta cmq , non so quanto serve per 2 giga , forse un volt?
devil_mcry
06-12-2021, 12:27
Ora non ti so dire onestamente , sulla mia non è mai arrivato così alto ( mi pare di aver visto 90ma di solito è meno ) nel caso cmq dovrebbe andare in throttling la scheda se troppo alto , cioè i sensori li mettono per quel motivo
Nel caso un pochino di UV ci sta cmq , non so quanto serve per 2 giga , forse un volt?
non ho overvoltato ma gira a 1.08v massimi mi pare
comunque essendo +13 gradi anche se sto a 80 è sempre più di 90…
TigerTank
06-12-2021, 13:02
non ho overvoltato ma gira a 1.08v massimi mi pare
comunque essendo +13 gradi anche se sto a 80 è sempre più di 90…
Vai di undervolt ottimizzato come ha scritto anche Frauss, 1.08V è un voltaggio abbondante che fa scaldare parecchio le schede.
Prova una curva a tipo 0,950V per frequenza tendente ai 2GHz. In caso di giochi con rt e problemi sali un pò. Tieni dei profili salvati in AB ;)
devil_mcry
06-12-2021, 13:04
Vai di undervolt ottimizzato, 1.08V è un voltaggio abbondante che fa scaldare parecchio le schede.
ma domanda, se abbasso il power limit, ora vedo che ero a 265w consumati, mettiamo che lo abbasso di 10w, le tensioni vengono ridotte su tutto l’arco o devo fare a mano per forza?
TigerTank
06-12-2021, 13:05
ma domanda, se abbasso il power limit, ora vedo che ero a 265w consumati, mettiamo che lo abbasso di 10w, le tensioni vengono ridotte su tutto l’arco o devo fare a mano per forza?
Il PL lascialo pure com'è, se fai una curva in undervolt abbassi automaticamente i consumi senza forzare cap di PL :)
fraussantin
06-12-2021, 13:22
ma domanda, se abbasso il power limit, ora vedo che ero a 265w consumati, mettiamo che lo abbasso di 10w, le tensioni vengono ridotte su tutto larco o devo fare a mano per forza?Se abbassi di 10 w non cambia niente nelle tensioni solo quando la scheda sotto carico raggiunge il limite imposto, 255 in questo caso, allora passa allo step di voltaggio e frequenza inferiore.
Abbassate il pl serve solo se per qualche motivo non su vuol arrivare ad un determinato wattaggio ( temperature , carico sull'alimentazione , rumore ventole ecc)
Intanto prova con undervolt come ti hanno indicato se per default ti mette 1.08 già a 1 o a 950 avrai un netto miglioramento .
Se poi ti rendi conto che arrivi cmq a 265w e alcune temp sono troppo alte puoi valutare se impostare un pl più basso o cambiare step di UV tipo 900mv
non ho overvoltato ma gira a 1.08v massimi mi pare
comunque essendo +13 gradi anche se sto a 80 è sempre più di 90…
+13 è un valore assolutamente normale. Da quanto ho capito, il valore minimo di hotspot è 10C al di sopra del valore base del core su ampere.
Diciamo che a vedere valori sopra i 100C di hotspot non sarei proprio tranquillo, soprattutto in inverno.
Fai un profilo ottimizzato e dovrebbero calare senza perdere performance.
devil_mcry
06-12-2021, 18:42
Se abbassi di 10 w non cambia niente nelle tensioni solo quando la scheda sotto carico raggiunge il limite imposto, 255 in questo caso, allora passa allo step di voltaggio e frequenza inferiore.
Abbassate il pl serve solo se per qualche motivo non su vuol arrivare ad un determinato wattaggio ( temperature , carico sull'alimentazione , rumore ventole ecc)
Intanto prova con undervolt come ti hanno indicato se per default ti mette 1.08 già a 1 o a 950 avrai un netto miglioramento .
Se poi ti rendi conto che arrivi cmq a 265w e alcune temp sono troppo alte puoi valutare se impostare un pl più basso o cambiare step di UV tipo 900mv
+13 è un valore assolutamente normale. Da quanto ho capito, il valore minimo di hotspot è 10C al di sopra del valore base del core su ampere.
Diciamo che a vedere valori sopra i 100C di hotspot non sarei proprio tranquillo, soprattutto in inverno.
Fai un profilo ottimizzato e dovrebbero calare senza perdere performance.
Meh ho provato ma non va, anche solo a 1.05v succede che crasha in horizon ogni tanto il driver, quindi probabilmente è sfigata e gli serve quel 1.08v per stare stabile
BTW essendo un po' al limite ho deciso di abbassarla di 50MHz, da 1950 a 1900, quindi ora dovrebbe boostare meno di 2ghz sempre, prima al massimo faceva 2025 ora immagino farà 1985
Cambia poco niente
Per curiosità, di solito in RTX di quanti mV in più c'è bisogno?
devil_mcry
06-12-2021, 21:08
ho capito cosa è successo
in pratica il bios della 3070 noctua mi limitava le ventole a 2000 rpm
da lì la temperatura alta
cmq ho rimesso il mio ora punto a un 1900mhz con un filo di downvolt. peccato perché col bios della 3070 noctua i 2ghz li teneva ma arrivava a 100
Thunder-74
06-12-2021, 22:47
ho capito cosa è successo
in pratica il bios della 3070 noctua mi limitava le ventole a 2000 rpm
da lì la temperatura alta
cmq ho rimesso il mio ora punto a un 1900mhz con un filo di downvolt. peccato perché col bios della 3070 noctua i 2ghz li teneva ma arrivava a 100
Un bios principalmente definisce una curva tra voltaggio e freq. , oltre a profilo ventole. Sostanzialmente se riproduci via software le stesse condizioni di voltaggio freq. del bios noctua con il bios originale, dovresti avete il medesimo comportamento di stabilità o meno.
Inviato dal mio iPad utilizzando Tapatalk
Cutter90
07-12-2021, 07:10
https://i.imgrpost.com/imgr/2021/12/07/Bright-Memory-Infinite-Screenshot-2021.12.04---15.01.30.50.md.png (https://imgrpost.com/image/fhHc6)
https://i.imgrpost.com/imgr/2021/12/07/1178830_20211207065407_1.md.png (https://imgrpost.com/image/fh4CU)
https://i.imgrpost.com/imgr/2021/12/07/1178830_20211206071252_1.md.png (https://imgrpost.com/image/fhUPC)
devil_mcry
07-12-2021, 07:26
Un bios principalmente definisce una curva tra voltaggio e freq. , oltre a profilo ventole. Sostanzialmente se riproduci via software le stesse condizioni di voltaggio freq. del bios noctua con il bios originale, dovresti avete il medesimo comportamento di stabilità o meno.
Inviato dal mio iPad utilizzando Tapatalk
Ma non pensavo mi avrebbe limitato le ventole
comunque il mio bios è massimo da 240w mentre l’altro 270
ma considerando che a 2 ghz pare al limite tanto vale usare questo
Thunder-74
07-12-2021, 07:48
Ma non pensavo mi avrebbe limitato le ventole
comunque il mio bios è massimo da 240w mentre l’altro 270
ma considerando che a 2 ghz pare al limite tanto vale usare questo
nel bios vengono definiti i range delle ventole, min e max ed eventuale stop sotto una determinata temp. Possibile che le Noctua hanno un range inferiore delle tue ed ecco spiegato perchè non riesci a salire oltre un certo regime di rotazione con le tue. Putroppo da Pascal in poi non è stato più possibile modificare i bios a nostro piacimento.
Ti riporto alcuni screen del bios di Maxwell per farti capire:
https://tpucdn.com/download/images/93_large-v1444810860.png
in questa sezione si definivano le freq. nelle varie condizioni e boost massimo, oltre appunto alla curva ventole: tre step in funzione della temp e sotto in basso a destra RPM02 in corrispondenza del PER02 (percentuale), i giri massimi delle ventole. Difatti corrispondono al 100% di impostazione (PER13 e PER02)
devil_mcry
07-12-2021, 07:54
nel bios vengono definiti i range delle ventole, min e max ed eventuale stop sotto una determinata temp. Possibile che le Noctua hanno un range inferiore delle tue ed ecco spiegato perchè non riesci a salire oltre un certo regime di rotazione con le tue. Putroppo da Pascal in poi non è stato più possibile modificare i bios a nostro piacimento.
Ti riporto alcuni screen del bios di Maxwell per farti capire:
https://tpucdn.com/download/images/93_large-v1444810860.png
in questa sezione si definivano le freq. nelle varie condizioni e boost massimo, oltre appunto alla curva ventole: tre step in funzione della temp e sotto in basso a destra RPM02 in corrispondenza del PER02 (percentuale), i giri massimi delle ventole. Difatti corrispondono al 100% di impostazione (PER13 e PER02)
non pensavo ci fosse un limite in rpm, alla fine essendo ventole pwm bastava farle andare in quel senso tra 0 e 100
pazienza, comunque se come ho settato ora è stabile alla fine ha pure più senso, dovrebbe andare al massimo a 1950mhz ma con 1.035v invece di 1.08 e al massimo 70 gradi
mi dispiace di averla fatta scaldare tanto ieri, è arrivata a 90 con l’hotspot a 100, ma non credo si sia rovinata l’ho usata poco
devil_mcry
07-12-2021, 09:13
Cmq ho fatto altre prove e niente, la mia per i 2ghz ha davvero bisogno di 1.08v e a sto punto non so nemmeno se è stabile
Ho fatto un profilo a 1.9ghz costanti praticamente così sono sicuro che non sbarella perché altrimenti era difficile da domare la curva originale della mia scheda e la lascio in pace :D alla fine ho recuperato quasi un 10% sono contento
Non so se si capisce che avrei avuto bisogno di una 3080 XD
devil_mcry
07-12-2021, 09:59
Ok ho giocato quasi 1 ora ad hzd a 1800p circa, tutto fluidissimo e nessun problema, temp massima 74.4 con hot spot a 86 abbondante
boost massimo 1960 ma mediamente 1920
Direi che più di così la mia gpu non fa :D
davide155
07-12-2021, 10:09
È bello o no?
A me è piaciuto tanto nonostante sia poco più che una demo.
La grafica poi è di gran lunga superiore al 99% dei giochi in circolazione
devil_mcry
07-12-2021, 10:24
È bello o no?
A me è piaciuto tanto nonostante sia poco più che una demo.
La grafica poi è di gran lunga superiore al 99% dei giochi in circolazione
Poco più che una demo XD?
Comunque io l'ho finito già due volte su PS4 PRO e l'ho platinato li oltre che ad averlo completato al 100% nel menu
Ora lo sto rigiocando qui sempre in ultra difficile, maxato in 4k al 90% (ho scoperto un piccolo bug con la risoluzione dinamica nelle cutscene quindi lo tengo così)
E' il mio gioco preferito nonostante ci abbia già giocato 140h su console me lo rigioco volentieri :D
Thunder-74
07-12-2021, 12:06
Poco più che una demo XD?
Comunque io l'ho finito già due volte su PS4 PRO e l'ho platinato li oltre che ad averlo completato al 100% nel menu
Ora lo sto rigiocando qui sempre in ultra difficile, maxato in 4k al 90% (ho scoperto un piccolo bug con la risoluzione dinamica nelle cutscene quindi lo tengo così)
E' il mio gioco preferito nonostante ci abbia già giocato 140h su console me lo rigioco volentieri :D
credo che si riferisse a Bright memory infinite, perchè di fatto dura solo 2 ore.
Horizon è bello lunghetto :)
devil_mcry
07-12-2021, 12:12
credo che si riferisse a Bright memory infinite, perchè di fatto dura solo 2 ore.
Horizon è bello lunghetto :)
AAAAAAAAAAAAAAAAAAAAAAAAAAAA ha senso
Infatti boh dicevo, va bene che non è un action gdr lunghissimo ma definirlo poco più di una demo ahahahah
:D
AAAAAAAAAAAAAAAAAAAAAAAAAAAA ha senso
Infatti boh dicevo, va bene che non è un action gdr lunghissimo ma definirlo poco più di una demo ahahahah
:D
Horizon è il gioco che mi ha fatto voler passare dalla 3070 alla 3080 in 4k, semplicemente fenomenale.
già su ps4 era davvero bellissimo, ai tempi mi aveva lasciato a bocca aperta. inoltre il gioco in se è bellissimo.
davvero un bel titolo nel complesso.
devil_mcry
07-12-2021, 20:02
Horizon è il gioco che mi ha fatto voler passare dalla 3070 alla 3080 in 4k, semplicemente fenomenale.
Io volevo la 3080 ma è già tanto che ho trovato una 3070 lol
Comunque giocandolo in 4k 90%, direi quindi a 1950p, è sempre sopra ai 60fps, mi accontento, la differenza è minima
Poi lo hanno migliorato molto nel tempo e ora gira molto meglio che quando lo vidi all'esordio. Ho aspettato a prenderlo sia perché con la 1080 che avevo prima era peggio che giocarlo su PS5, ma anche perché è la quarta versione del gioco che acquisto XD
D1 + D1 DLC in digitale
Complete Edition fisica
D1 giapponese con mini artbook
Questa
:D
già su ps4 era davvero bellissimo, ai tempi mi aveva lasciato a bocca aperta. inoltre il gioco in se è bellissimo.
davvero un bel titolo nel complesso.
Guarda lungi da me fare la master race, anche perché poi gioco persino a roba di 3 generazioni fa su console ma rigiocarlo ora su PC mi ha ridato quel gusto del "uao che grafica" che avevo avuto al D1 su PS4 Pro
Thunder-74
08-12-2021, 12:02
mentre voi parlate di Horizon, nel frattempo esce una patch che aggiunge il DLSS e altri miglioramenti:
Graphical Improvements
Added Nvidia’s DLSS upscaling technology.
Added AMD’s FidelityFX Super Resolution, replacing FidelityFX CAS.
The new Horizon Zero Dawn also introduces UI changes as well as performance improvements. The shader management system has been improved so that now the game compiles shaders in the background during loading, resulting in fewer stuttering issues during gameplay and more.
UI Changes
Adjusted settings screen to facilitate the addition of DLSS and FSR.
Render Scale option has been removed but same result can now be accomplished by adjusting setting Upscale Method to Simple and adjusting Upscale Quality.
Performance Improvements
Improvement to the shader management system. This will result in a few noticeable differences:
There is no longer a shader pre-compilation step on startup. The game will always compile shaders during loading and in the background.
Stutters during gameplay that used to occur due to background shader compilation have now been significantly reduced.
Because shader compilation is still happening in the background you may notice the game having a higher CPU utilization while that is happening.
Loading screens will wait for the required shaders to be fully compiled. This may cause loading screens to take somewhat longer on certain systems.
On higher spec machines with faster CPUs the loading screens will typically be shorter, due to more efficient shader compilation that better leverages high-end CPUs.
LINK (https://wccftech.com/horizon-zero-dawn-pc-patch-1-11-dlss-fsr/)
EDIT:
presenta la nuova versione 2.3.5 del DLSS
scaricabile da qui: LINK (https://www.techpowerup.com/download/nvidia-dlss-dll/)
TigerTank
08-12-2021, 12:44
mentre voi parlate di Horizon, nel frattempo esce una patch che aggiunge il DLSS e altri miglioramenti:
Graphical Improvements
Added Nvidia’s DLSS upscaling technology.
Added AMD’s FidelityFX Super Resolution, replacing FidelityFX CAS.
The new Horizon Zero Dawn also introduces UI changes as well as performance improvements. The shader management system has been improved so that now the game compiles shaders in the background during loading, resulting in fewer stuttering issues during gameplay and more.
UI Changes
Adjusted settings screen to facilitate the addition of DLSS and FSR.
Render Scale option has been removed but same result can now be accomplished by adjusting setting Upscale Method to Simple and adjusting Upscale Quality.
Performance Improvements
Improvement to the shader management system. This will result in a few noticeable differences:
There is no longer a shader pre-compilation step on startup. The game will always compile shaders during loading and in the background.
Stutters during gameplay that used to occur due to background shader compilation have now been significantly reduced.
Because shader compilation is still happening in the background you may notice the game having a higher CPU utilization while that is happening.
Loading screens will wait for the required shaders to be fully compiled. This may cause loading screens to take somewhat longer on certain systems.
On higher spec machines with faster CPUs the loading screens will typically be shorter, due to more efficient shader compilation that better leverages high-end CPUs.
LINK (https://wccftech.com/horizon-zero-dawn-pc-patch-1-11-dlss-fsr/)
EDIT:
presenta la nuova versione 2.3.5 del DLSS
scaricabile da qui: LINK (https://www.techpowerup.com/download/nvidia-dlss-dll/)
Grazie Thunder, all'avanguardia come sempre :cool:
Sì infatti il 2.3.5 è stato introdotto proprio con Horizon Zero Dawn (da TPU "Source: Horizon Zero Dawn").
Ora mi faccio una sessione a Diablo 2 R. e lo metto. Il 2.3.4 funzionava benissimo. :D
Thunder-74
08-12-2021, 12:50
Grazie Thunder, all'avanguardia come sempre :cool:
Sì infatti il 2.3.5 è stato introdotto proprio con Horizon Zero Dawn (da TPU "Source: Horizon Zero Dawn").
Ora mi faccio una sessione a Diablo 2 R. e lo metto. Il 2.3.4 funzionava benissimo. :D
:D
devil_mcry
08-12-2021, 12:51
Io l'ho provato e ho anche due numeri
Prima ero 4k max 90% antialising solo su visuale > gli fps gpu erano 74 69 63
Ora sono 4k DLSS max qualità massima ............ > gli fps gpu sono 79 75 73
La gpu in se però gira a molto meno a frequenze alte, si limita a 1500-1600 invece di 1900 fissi e scalda pochissimo ora -10°
Ma in generale, perché la gpu In dlss consuma circa un 20% in meno rispetto senza? Non dovrebbe consumare di più avendo anche i tensor core attivi?
A me in cyberpunk, necromunda ecc
Con dlss circa 180w
Senza ho tagli a solo 0.84V a 1845 (210w)
devil_mcry
08-12-2021, 13:02
Ma in generale, perché la gpu In dlss consuma circa un 20% in meno rispetto senza?
A me in cyberpunk, necromunda ecc
Con dlss circa 180w
Senza ho tagli a solo 0.84V a 1845 (210w)
Nel mio caso vedo che gira proprio a frequenze più basse, dai 1900 circa di ieri sera senza DLSS oggi girava a 1550
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.