View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
TigerTank
08-12-2021, 13:59
Io l'ho provato e ho anche due numeri
Prima ero 4k max 90% antialising solo su visuale > gli fps gpu erano 74 69 63
Ora sono 4k DLSS max qualità massima ............ > gli fps gpu sono 79 75 73
La gpu in se però gira a molto meno a frequenze alte, si limita a 1500-1600 invece di 1900 fissi e scalda pochissimo ora -10°
Caspita ma perchè ti cala così tanto in frequenza? Ok il DLSS ma se giochi comunque in 4K a settaggi sostenuti con titoli che siano un pò più pesanti di campo minato non dovrebbe scendere così tanto...
Se ti va posta qualche screen con le varie info da OSD in vista.
Ad esempio la mia usata a 1995Mhz@0,95V nelle cinematiche blande si parcheggia così:
http://i.imgur.com/mJTblDGl.jpg (https://imgur.com/mJTblDG)
Ma in gioco mai vista calare più di tanto. E vedendo i tuoi numeri non sei nemmeno cappato a 60.
A meno che le 3070 abbiano un comportamento diverso ma un salto da 1900 a 1500-1600 mi sembra comunque tanto sotto gaming 4K.
Sembra un pò strana questa situazione in Horizon. Da provare.
Thunder-74
08-12-2021, 14:38
Caspita ma perchè ti cala così tanto in frequenza? Ok il DLSS ma se giochi comunque in 4K a settaggi sostenuti con titoli che siano un pò più pesanti di campo minato non dovrebbe scendere così tanto...
Se ti va posta qualche screen con le varie info da OSD in vista.
Ad esempio la mia usata a 1995Mhz@0,95V nelle cinematiche blande si parcheggia così:
http://i.imgur.com/mJTblDGl.jpg (https://imgur.com/mJTblDG)
Ma in gioco mai vista calare più di tanto. E vedendo i tuoi numeri non sei nemmeno cappato a 60.
A meno che le 3070 abbiano un comportamento diverso ma un salto da 1900 a 1500-1600 mi sembra comunque tanto sotto gaming 4K.
Sembra un pò strana questa situazione in Horizon. Da provare.
no non è normale a mio avviso. La scheda gli entra in modalità 2D, profilo 1 del bios (quello intermedio). Succede quando l'uso della GPU scende sul 50% del suo utilizzo e non credo che sia questa la sua condizione in 4k.
Proverei a reinstallare i drivers dopo aver usato DDU.
devil_mcry
08-12-2021, 14:43
Caspita ma perchè ti cala così tanto in frequenza? Ok il DLSS ma se giochi comunque in 4K a settaggi sostenuti con titoli che siano un pò più pesanti di campo minato non dovrebbe scendere così tanto...
Se ti va posta qualche screen con le varie info da OSD in vista.
Ad esempio la mia usata a 1995Mhz@0,95V nelle cinematiche blande si parcheggia così:
http://i.imgur.com/mJTblDGl.jpg (https://imgur.com/mJTblDG)
Ma in gioco mai vista calare più di tanto. E vedendo i tuoi numeri non sei nemmeno cappato a 60.
A meno che le 3070 abbiano un comportamento diverso ma un salto da 1900 a 1500-1600 mi sembra comunque tanto sotto gaming 4K.
Sembra un pò strana questa situazione in Horizon. Da provare.
Perchè non serve, ho il cap a 60fps e gira a 60, quei numeri li ho guardati nella sessione di gioco non nel benchmark
Cutter90
08-12-2021, 15:01
Allora. Ho fatto qualche test su Horizon per chi li chiedeva. Gpu a +130+600 in OC
Nativa
https://i.imgrpost.com/imgr/2021/12/08/NATIVA.md.png (https://imgrpost.com/image/fFePd)
DLSS Qualità
https://i.imgrpost.com/imgr/2021/12/08/DLSS_QUALITY.md.png (https://imgrpost.com/image/fFW9i)
DLSS Prestazioni (rendering 1080p a 4k ricordo)
https://i.imgrpost.com/imgr/2021/12/08/DLSS-PRESTAZIONI.md.png (https://imgrpost.com/image/fFSLb)
FRS Ultra Quality
https://i.imgrpost.com/imgr/2021/12/08/FSR-ULTRAQUALITY.md.png (https://imgrpost.com/image/fFXhk)
Bench DLSS Qualità
https://i.imgrpost.com/imgr/2021/12/08/BENCH-DLSS-ULTRA.md.png (https://imgrpost.com/image/fF5pN)
Bench Nativa
https://i.imgrpost.com/imgr/2021/12/08/BENCH-DLSS-NATIVO.md.png (https://imgrpost.com/image/fFCEn)
A voi!!
Io l'ho provato e ho anche due numeri
Prima ero 4k max 90% antialising solo su visuale > gli fps gpu erano 74 69 63
Ora sono 4k DLSS max qualità massima ............ > gli fps gpu sono 79 75 73
La gpu in se però gira a molto meno a frequenze alte, si limita a 1500-1600 invece di 1900 fissi e scalda pochissimo ora -10°
Ottimo, come ti sembra il risultato in dlss? Meglio del 4k native? Stasera provo
Comunqie hanno detto che avevano ridotto lo sviluppo su pc per concentrarai su forbidden West, spero che queste siano buone notizie per il porting del secondo capitolo su pc
TigerTank
08-12-2021, 15:21
Perchè non serve, ho il cap a 60fps e gira a 60, quei numeri li ho guardati nella sessione di gioco non nel benchmark
Boh però strano, concordo con Thunder.
Questa per esempio è una 3090 che a pieno carico con DLSS e 4K maxato in gioco viaggia sui 100fps e più.
https://youtu.be/phjZg77ay_M?t=243
Anche con il cap a 60 per una 3070 parleremmo comunque di 4K e settaggi grafici alti, ecco perchè mi sembra strano uno scalo di 300-400MHz dai 1900.
EDIT: Ecco Cutter è in linea con il video.
@Cutter:che succede alla tua se cappi a 60fps?
L'immahine in 4k ultra quality mi sembra molto "croccante", forse fin troppo. Bisogna vederlo in movimento Comunque l'aumento di performance per chiera sui 50 fps è abbastanza da rendere giocabile un titolo a 60fps fissi. Il dlss quando implementato vale quanto una generazione di scheda video, soprattutto in 4k.
TigerTank
08-12-2021, 15:53
L'immahine in 4k ultra quality mi sembra molto "croccante", forse fin troppo. Bisogna vederlo in movimento Comunque l'aumento di performance per chiera sui 50 fps è abbastanza da rendere giocabile un titolo a 60fps fissi. Il dlss quando implementato vale quanto una generazione di scheda video, soprattutto in 4k.
Sì, il DLSS è manna dal cielo.
Circa la dinamicità guarda il mio link, puoi settarlo anche a qualità 4K.
L'ho messo dal punto in cui parte con il normale gameplay con DLSS qualità.
devil_mcry
08-12-2021, 15:57
Boh però strano, concordo con Thunder.
Questa per esempio è una 3090 che a pieno carico con DLSS e 4K maxato in gioco viaggia sui 100fps e più.
https://youtu.be/phjZg77ay_M?t=243
Anche con il cap a 60 per una 3070 parleremmo comunque di 4K e settaggi grafici alti, ecco perchè mi sembra strano uno scalo di 300-400MHz dai 1900.
EDIT: Ecco Cutter è in linea con il video.
@Cutter:che succede alla tua se cappi a 60fps?
non so che dire, con il cap mi gira al massimo in 4k e la scheda ha un carico molto più basso, ovviamente con il dlss
se lo tolgo la scheda invece gira al massimo
non c’è niente che non va semplicemente invece di fare 80 fps ne fa 60, è il 25% in meno ci sta che la scheda giri al 25% in meno di clock
non so che dire, con il cap mi gira al massimo in 4k e la scheda ha un carico molto più basso, ovviamente con il dlss
se lo tolgo la scheda invece gira al massimo
non c’è niente che non va semplicemente invece di fare 80 fps ne fa 60, è il 25% in meno ci sta che la scheda giri al 25% in meno di clock
in realtà non ci sta.
la mia, è una 3060ti, ma li siamo, è a 1845 senza dlss e 1845 con, così come tutte.
ti perdi prestazioni importanti. Io farei un formattone riparatore e via :D
ciao a tutti.. ho liquidato la mia inno3d 3080 con un kit a liquido dell'alphacool. Le temperature sono scese ma forse non come dovrebbero. La gpu fa circa 50° rispetto ai 67-68 di prima, ma la cosa strana è quella della junction memory che rimane sugli 80° sotto sforzo. E' normale o ho cannato qualcosa?
Se leggi online gli alphacool sembrano avere problemi di t junction alte sulle memorie. Posso chiedere che pad hai usato? Magari si risolve usando pad di qualità migliore.
i pad in dotazione del kit... sono da 3 mm quelli del blackplate mentre da 1 mm se non mi ricordo male quelli lato chip gpu
https://forum.alphacool.com/threads/memory-temperature-with-alphacool-eisblock-aurora-acryl-gpx-n-rtx-3090-3080-with-backplate-reference.1773/
Leggi qua. Alphacool dice che è colpa delle variazioni nei lotti di produzione, delle schede. Si offrono di aiutare a trovare i pad giusti in caso di problemi. Hai due strade, o contatti il loro servizio clienti o provi dei pad termici migliori di tasca tua.
devil_mcry
08-12-2021, 18:01
in realtà non ci sta.
la mia, è una 3060ti, ma li siamo, è a 1845 senza dlss e 1845 con, così come tutte.
ti perdi prestazioni importanti. Io farei un formattone riparatore e via :D
ma non è che avete il risparmio energetico spento?
comunque non perdo niente, gira a 60 fissi
se tolgo il limite degli fps e il vsync la vga va al massimo a quel punto e gira fissi a 1920
probabilmente te anche con il dlss sei al limite boh
https://forum.alphacool.com/threads/memory-temperature-with-alphacool-eisblock-aurora-acryl-gpx-n-rtx-3090-3080-with-backplate-reference.1773/
Leggi qua. Alphacool dice che è colpa delle variazioni nei lotti di produzione, delle schede. Si offrono di aiutare a trovare i pad giusti in caso di problemi. Hai due strade, o contatti il loro servizio clienti o provi dei pad termici migliori di tasca tua.
Hai suggerimenti di marche di pad da acquistare?
TigerTank
08-12-2021, 18:30
non so che dire, con il cap mi gira al massimo in 4k e la scheda ha un carico molto più basso, ovviamente con il dlss
se lo tolgo la scheda invece gira al massimo
non c’è niente che non va semplicemente invece di fare 80 fps ne fa 60, è il 25% in meno ci sta che la scheda giri al 25% in meno di clock
Capito...al massimo se hai tempo/voglia prova a reinstallare i drivers dopo una bella pulizia totale e vedi cosa succede :)
Perchè alla fine prestazioni a parte mi sembra appunto un calo di frequenza troppo marcato in relazione a scheda, risoluzione(la 4K comunque è bella pesante anche a 60fps), gioco e settaggi di gioco(DLSS Qualità incluso).
Imho anche se vai a 60 invece che 80 non dovrebbe ridurre così tanto il clock, anche perchè il DLSS comunque lavora sugli rt cores.
Hai suggerimenti di marche di pad da acquistare?
Se non sbaglio i più quotati di chi ha smanettato con le schede sono Gelid Extreme e Thermalright.
Gilgamessh
08-12-2021, 18:52
salve a tutti, una veloce domanda: nel pannello nvidia la low latency va settata su off, on o ultra?
grazie
(THE REAL) Neo
08-12-2021, 18:54
Nel mio caso vedo che gira proprio a frequenze più basse, dai 1900 circa di ieri sera senza DLSS oggi girava a 1550Io gioco a Tomb Raider Rise of,e a Assetto corsa competizione,entrambi con DLSS attivo,e la mia 3080 Ftw3 mi boosta normalmente,1980/1995/2010 a seconda della temperatura,ma sempre a 1980 di media.
devil_mcry
08-12-2021, 19:02
Mah non so mi avete fatto venire il dubbio e ora ho giocato 1 ora ed è sempre stata al massimo. Mmmm boh allora devo aver letto male perché a parte il discorso clock il gioco gira come girava prima
Windows di per se è pulito, l'ho appena formattato, al più può essere windows 11 boh
TigerTank
08-12-2021, 19:04
salve a tutti, una veloce domanda: nel pannello nvidia la low latency va settata su off, on o ultra?
grazie
Va usata in dx11 e in dx9 perchè Vulkan e DX12 si "regolano da sole".
Se ti va nei giochi dx11 prova a settarla in Ultra + vsync attivo. Ultra quando funziona a dovere ti abbassa automaticamente il framerate sotto alla soglia massima.
Quel settaggio è praticamente il successore del vecchio "“Maximum Pre-Rendered Frames”.
Alekos Panagulis
08-12-2021, 20:10
Raga provate la campagna di Halo Infinite uscita oggi e disponibile anche su gamepass....veramente goduriosa.
devil_mcry
08-12-2021, 20:57
Raga provate la campagna di Halo Infinite uscita oggi e disponibile anche su gamepass....veramente goduriosa.
Ci sto giochicchiando anche io, gli FPS ormai non sono più il mio genere però ha un ottimo gunplay, nell'insieme ci sta è bello
Hai suggerimenti di marche di pad da acquistare?
Gelid Extreme. Sono molto morbidi e si adattano bene nel caso siano appena troppo alti. Gli ultimate sono duri come una gomma da cancellare.
Quando la smonti fai una foto ai pad e valuta se hanno lasciato un impronta. Il fatto che hai 80 gradi e non 110 mi fa pensare che siano solo dei pad mediocri, magari una leggera mancanza di pressione ma niente di terribile, non una completa mancanza di contatto.
Poi valuta tu se vale la pena smontare tutto e sbattersi ad ordinare i pad, alla fine 80 gradi sono ok.
Comunque quasi mi pento di non aver tenuto la 3090 FE con i prezzi di oggi, l'avevo presa quando cercavo la 3080 come "tappabuchi" ma non riuscivo a giustificare la differenza di prezzo. L'ho tenuta un mesetto incartata che mi guardava prima di riuscire a trovare una 3080 FE e l'ho rivenduta ad un amico (come feci anche con la 3070 FE). L'anno scorso qualcosa si trovava qui (ci sono stato dietro 3 mesi ai drop) ma ora la situazione è drammatica. Uno dei pochi ad aver avuto 3 FE credo :sofico:
Cutter90
09-12-2021, 08:32
Ci sto giochicchiando anche io, gli FPS ormai non sono più il mio genere però ha un ottimo gunplay, nell'insieme ci sta è bello
Ho visto l'analisi di DF. Si rispresenta la stessa situazione di Forza Horizon 5. Versione pc un po' butatata lì. Niente features ad hoc, ottimizzazione scarsa. Niente dlss, rt o fsr. Settaggi ultra poco superiori alla controparte xsx. Cara ms, non ci siamo.
devil_mcry
09-12-2021, 09:02
Ho visto l'analisi di DF. Si rispresenta la stessa situazione di Forza Horizon 5. Versione pc un po' butatata lì. Niente features ad hoc, ottimizzazione scarsa. Niente dlss, rt o fsr. Settaggi ultra poco superiori alla controparte xsx. Cara ms, non ci siamo.
Non ho visto il video ma si, non ci sono features particolari per il PC. L'ottimizzazione anche non mi pare il massimo
Thunder-74
09-12-2021, 09:37
Mah non so mi avete fatto venire il dubbio e ora ho giocato 1 ora ed è sempre stata al massimo. Mmmm boh allora devo aver letto male perché a parte il discorso clock il gioco gira come girava prima
Windows di per se è pulito, l'ho appena formattato, al più può essere windows 11 boh
in generale, quando si cappano i frame, la freq. della scheda cala, perchè va ad attarsi alle necessità della situazione. Ovvio che dipende anche dalla curva voltaggio/freq. Quindi di per sé non c'è nulla di anormale nella tua scheda. Il punto è che sembra strano che una 3070 in 4k nativo+DLSS possa essere così abbondante Sicuro che non ai ridotto la res ? Comunque se ti tiene fissi i 60fps, ottimo, vuol dire che realmente non stai avendo bisogno di tutta la potenza della gpu. Giusto per fugare ogni tua perplessità, prova altri titoli in DLSS e vedi se hai il medesimo comportamento. Ma comunque sarei tranquillo se i tuoi fps rimangono fissi. Diverso è se vedi andare sotto ai 60 fps e la gpu rimanere dormiente ad una freq. ridotta ;)
Alekos Panagulis
09-12-2021, 09:48
Ho visto l'analisi di DF. Si rispresenta la stessa situazione di Forza Horizon 5. Versione pc un po' butatata lì. Niente features ad hoc, ottimizzazione scarsa. Niente dlss, rt o fsr. Settaggi ultra poco superiori alla controparte xsx. Cara ms, non ci siamo.
Si è così, ma a me piace il gameplay old style. Mi ricorda il mio amatissimo Unreal.
devil_mcry
09-12-2021, 09:55
in generale, quando si cappano i frame, la freq. della scheda cala, perchè va ad attarsi alle necessità della situazione. Ovvio che dipende anche dalla curva voltaggio/freq. Quindi di per sé non c'è nulla di anormale nella tua scheda. Il punto è che sembra strano che una 3070 in 4k nativo+DLSS possa essere così abbondante Sicuro che non ai ridotto la res ? Comunque se ti tiene fissi i 60fps, ottimo, vuol dire che realmente non stai avendo bisogno di tutta la potenza della gpu. Giusto per fugare ogni tua perplessità, prova altri titoli in DLSS e vedi se hai il medesimo comportamento. Ma comunque sarei tranquillo se i tuoi fps rimangono fissi. Diverso è se vedi andare sotto ai 60 fps e la gpu rimanere dormiente ad una freq. ridotta ;)
No cioè la risoluzione è 4k + dlss qualità, lo slider per ridurre la risoluzione non c'è più.
L'unica riflessione era fatta sui 80 frame che fa a ruota libera però boh, cmq l'importante è giocare bene
Oggi ho invece scoperto che il tool di asus non imposta più l'OC all'avvio. Che noia
Thunder-74
09-12-2021, 10:07
No cioè la risoluzione è 4k + dlss qualità, lo slider per ridurre la risoluzione non c'è più.
L'unica riflessione era fatta sui 80 frame che fa a ruota libera però boh, cmq l'importante è giocare bene
Oggi ho invece scoperto che il tool di asus non imposta più l'OC all'avvio. Che noia
lascia perdere altri software e usa solo Afterburner
EDIT:
Microsoft DirectX H264/265 Video Encode API now available for Intel and NVIDIA GPUs, AMD in Q2 2022
...Oggi DirectX 12 fornisce API per supportare l'accelerazione GPU per diverse applicazioni video come la decodifica video, l'elaborazione video e la stima del movimento, come dettagliato nella Panoramica video di Direct3D 12. Siamo lieti di annunciare che D3D12 ha aggiunto una nuova funzionalità di codifica video alle famiglie di API video esistenti, con un nuovo set di interfacce che consentono agli sviluppatori di eseguire la codifica video utilizzando motori video con accelerazione GPU. Questa funzione offre un nuovo modo per le app di implementare la codifica video coerentemente con i principi e lo stile di DirectX 12...
LINK (https://videocardz.com/press-release/microsoft-directx-h264-265-video-encode-api-now-available-for-intel-and-nvidia-gpus-amd-in-q2-2022)
Cutter90
09-12-2021, 10:50
No cioè la risoluzione è 4k + dlss qualità, lo slider per ridurre la risoluzione non c'è più.
L'unica riflessione era fatta sui 80 frame che fa a ruota libera però boh, cmq l'importante è giocare bene
Oggi ho invece scoperto che il tool di asus non imposta più l'OC all'avvio. Che noia
Beh ma con la 3070 ci stanno 80 fps in dlss quality in 4k... o no?
TigerTank
09-12-2021, 11:32
Beh ma con la 3070 ci stanno 80 fps in dlss quality in 4k... o no?
No ma il suo problema era che cappando a 60 la 3070 gli calava addirittura dai 1900 ai 1500-1600...una cosa un pò anomala considerato comunque il 4K e settaggi maxati.
No ma il suo problema era che cappando a 60 la 3070 gli calava addirittura dai 1900 ai 1500-1600...una cosa un pò anomala considerato comunque il 4K e settaggi maxati.
In teoria se dai driver si imposta preferisci le prestazioni massime non dovrebbe comportarsi così, ma mantenere sempre la frequenza alta. Se invece e' su prestazioni ottimali dell'alimentazione taglia appena puo'.
No ma il suo problema era che cappando a 60 la 3070 gli calava addirittura dai 1900 ai 1500-1600...una cosa un pò anomala considerato comunque il 4K e settaggi maxati.
Io penso sia perfettamente normale invece in 4 k e dlss avere la scheda a bassa frequenza.
devil_mcry
09-12-2021, 15:27
Si ma non pesate troppo a quei numeri, cmq sono passato ad afterburner da quello asus
Cutter90
09-12-2021, 15:39
Si ma non pesate troppo a quei numeri, cmq sono passato ad afterburner da quello asus
Bravo. AB è il migliore. Cmq per curiosità cappo a 60 horizon e poi ti dico. Ingame io faccio 100-120 fps con dlss in 4k con 2055 di frequenza. Vediamo a 60 quanto va
TigerTank
09-12-2021, 15:42
In teoria se dai driver si imposta preferisci le prestazioni massime non dovrebbe comportarsi così, ma mantenere sempre la frequenza alta. Se invece e' su prestazioni ottimali dell'alimentazione taglia appena puo'.
Io penso sia perfettamente normale invece in 4 k e dlss avere la scheda a bassa frequenza.
No, secondo me è una situazione anomala perchè parliamo di una 3070, per la quale comunque una 4K maxata + DLSS Qualità sarebbe comunque impegnativa anche se cappata a 60fps.
Circa i cali, ok se parlassimo di cinematiche o menu, sia in frequenza che in voltaggio...o dei classici tagli da temperatura o power limit...ma addirittura 400MHz in meno(in pratica il base clock) in gaming la vedo difficile.
Vediamo se qualcun'altro fa qualche prova in merito, magari cappando anche una scheda superiore a 60fps.
Si ma non pesate troppo a quei numeri, cmq sono passato ad afterburner da quello asus
Sì sì vai di AB che è il migliore anche come OSD :)
Magari era un semplice problema di letture...
Bravo. AB è il migliore. Cmq per curiosità cappo a 60 horizon e poi ti dico. Ingame io faccio 100-120 fps con dlss in 4k con 2055 di frequenza. Vediamo a 60 quanto va
Grazie Cutter.
Cutter90
09-12-2021, 17:07
No, secondo me è una situazione anomala perchè parliamo di una 3070, per la quale comunque una 4K maxata + DLSS Qualità sarebbe comunque impegnativa anche se cappata a 60fps.
Circa i cali, ok se parlassimo di cinematiche o menu, sia in frequenza che in voltaggio...o dei classici tagli da temperatura o power limit...ma addirittura 400MHz in meno(in pratica il base clock) in gaming la vedo difficile.
Vediamo se qualcun'altro fa qualche prova in merito, magari cappando anche una scheda superiore a 60fps.
Sì sì vai di AB che è il migliore anche come OSD :)
Magari era un semplice problema di letture...
Grazie Cutter.
Ho fatto il test. E a me rimane fisso sui 2055 esattamente come se non cappassi a 60. Anche se la scheda lavora al 55 %, Ho controllato e non ho il "preferisci le prestazioni massime". Boh
No, secondo me è una situazione anomala perchè parliamo di una 3070, per la quale comunque una 4K maxata + DLSS Qualità sarebbe comunque impegnativa anche se cappata a 60fps.
Circa i cali, ok se parlassimo di cinematiche o menu, sia in frequenza che in voltaggio...o dei classici tagli da temperatura o power limit...ma addirittura 400MHz in meno(in pratica il base clock) in gaming la vedo difficile.
Vediamo se qualcun'altro fa qualche prova in merito, magari cappando anche una scheda superiore a 60fps.
Non ho capito perchè state facendo tutto questa discussione...quello che succede è normalissimo.
Io non ho la 3070 e non ho HZD, ma da una rapida ricerca risulta che la scheda faccia mediamente una 50ina di fps in 4k. Questo prima del DLSS.
Se questi fps sono corretti (io ho visto i grafici su internet da un paio di siti) mi pare più che naturale che l'impostazione DLSS Quality regali una 20-30ina di fps in più...Quindi mi immagino che saresti attorno agli 80 se lasciato andare a briglia sciolta. Se limiti a 60 fps, la scheda non ha bisogno di spingere a fondo e taglia su frequenze e tensioni. E' un comportamento assolutamente normale e ovviamente non "perdi prestazioni" di alcun tipo.
Tutto questo, se nel pannello nvidia hai selezionato "Impostazioni Ottimali alimentazione". Se hai "Prediligi prestazione massime", vai a cannone sempre e comunque. Ma sempre 60 fps farai...
Per inciso, io ho la 3080 e su Guardians of the Galaxy, mi fa la stessa. Limitato a 60 fps, con DLSS Quality e RT a palla, stavo mediamente a 1500-1600 Mhz, con picchi di 1900Mhz in alcuni specifici momenti (brevi). Se levo il DLSS, sono a 1900 Mhz fissi...e faccio la metà degli fps.
Ripeto, non ci vedo nulla di strano nel comportamento.
Cutter90
09-12-2021, 17:37
Non ho capito perchè state facendo tutto questa discussione...quello che succede è normalissimo.
Io non ho la 3070 e non ho HZD, ma da una rapida ricerca risulta che la scheda faccia mediamente una 50ina di fps in 4k. Questo prima del DLSS.
Se questi fps sono corretti (io ho visto i grafici su internet da un paio di siti) mi pare più che naturale che l'impostazione DLSS Quality regali una 20-30ina di fps in più...Quindi mi immagino che saresti attorno agli 80 se lasciato andare a briglia sciolta. Se limiti a 60 fps, la scheda non ha bisogno di spingere a fondo e taglia su frequenze e tensioni. E' un comportamento assolutamente normale e ovviamente non "perdi prestazioni" di alcun tipo.
Tutto questo, se nel pannello nvidia hai selezionato "Impostazioni Ottimali alimentazione". Se hai "Prediligi prestazione massime", vai a cannone sempre e comunque. Ma sempre 60 fps farai...
Per inciso, io ho la 3080 e su Guardians of the Galaxy, mi fa la stessa. Limitato a 60 fps, con DLSS Quality e RT a palla, stavo mediamente a 1500-1600 Mhz, con picchi di 1900Mhz in alcuni specifici momenti (brevi). Se levo il DLSS, sono a 1900 Mhz fissi...e faccio la metà degli fps.
Ripeto, non ci vedo nulla di strano nel comportamento.
Leggi sopra.....
devil_mcry
09-12-2021, 17:38
Boh, cmq alla fine ho anche scoperto una cosa, mediamente la mia 3070 gira a 1v. A quella frequenza regge i 1900mhz
A 1.085v regge anche i 2000mhz (cmq è già al limite) ma tanto non c'è il bios della Dual OC online versione LHR quindi non posso cambiarlo
Come sono messo sono quasi il 10% sopra a quanto fa stock, e a 800 punti di superposition dalla 3070 ti
TigerTank
09-12-2021, 18:35
Non ho capito perchè state facendo tutto questa discussione...quello che succede è normalissimo.
Io non ho la 3070 e non ho HZD, ma da una rapida ricerca risulta che la scheda faccia mediamente una 50ina di fps in 4k. Questo prima del DLSS.
Se questi fps sono corretti (io ho visto i grafici su internet da un paio di siti) mi pare più che naturale che l'impostazione DLSS Quality regali una 20-30ina di fps in più...Quindi mi immagino che saresti attorno agli 80 se lasciato andare a briglia sciolta. Se limiti a 60 fps, la scheda non ha bisogno di spingere a fondo e taglia su frequenze e tensioni. E' un comportamento assolutamente normale e ovviamente non "perdi prestazioni" di alcun tipo.
Tutto questo, se nel pannello nvidia hai selezionato "Impostazioni Ottimali alimentazione". Se hai "Prediligi prestazione massime", vai a cannone sempre e comunque. Ma sempre 60 fps farai...
Ovvio.
Per inciso, io ho la 3080 e su Guardians of the Galaxy, mi fa la stessa. Limitato a 60 fps, con DLSS Quality e RT a palla, stavo mediamente a 1500-1600 Mhz, con picchi di 1900Mhz in alcuni specifici momenti (brevi). Se levo il DLSS, sono a 1900 Mhz fissi...e faccio la metà degli fps.
Ripeto, non ci vedo nulla di strano nel comportamento.
Questo è Guardians of the Galaxy su una 3080 in 4K 60Hz e con DLSS attivo.
Come vedi comunque anche se il tizio ha tolto il cap il framerate va anche sotto ai 60(cioè il gioco spinge comunque la vga al massimo anche intorno ai 60fps) ma la frequenza della scheda resta sempre sui 1900 e più.
Per cui secondo me o c'è un qualche bug sui 4K 60Hz vsyncato o qualcos'altro non torna perchè non dovrebbero comunque calare così tanto in frequenza in gaming. Anche con il DLSS attivo.
https://youtu.be/ypTiseu6_Ww?t=133
Boh, è una cosa un pò strana. Al massimo fai una prova. Disattiva ogni vsync, nel pannello nvidia setta un limite di framerate tipo a 65fps e vedi cosa succede.
Che la scheda vada a "1500-1600" su un gioco che maxato in 4K + DLSS Qualità spinge una 3080 al massimo già ad un framerate sui 60fps mi sembra strano.
No, secondo me è una situazione anomala perchè parliamo di una 3070, per la quale comunque una 4K maxata + DLSS Qualità sarebbe comunque impegnativa anche se cappata a 60fps.
Circa i cali, ok se parlassimo di cinematiche o menu, sia in frequenza che in voltaggio...o dei classici tagli da temperatura o power limit...ma addirittura 400MHz in meno(in pratica il base clock) in gaming la vedo difficile.
Vediamo se qualcun'altro fa qualche prova in merito, magari cappando anche una scheda superiore a 60fps.
https://i.ibb.co/jgy1MZM/4k-death-stranding.jpg (https://ibb.co/WgkYypy)
4K DLSS quality, completamente maxato. Addirittura non si sono accese le ventole :D
https://i.ibb.co/CQghhL0/3080-stock-2.jpg (https://ibb.co/CQghhL0) https://i.ibb.co/SnCh9tT/3080-stock.jpg (https://ibb.co/SnCh9tT)
Horizon sta tra queste due cifre invece con 4K DLSS su quality e tutto max
Alla fine una 3070 è un 30% più lenta circa
Il Decima engine è uno spettacolo
Thunder-74
10-12-2021, 07:32
Ragazzi, se non lo avete visto, guardate questo video del gioco/demo di The Matrix Awakens con Unreal Engine 5
e' pazzesco cosa riesce a fare su console...
se non volete vederlo tutto, scorretelo verso la fine per vedere l'effetto in game, comunque l'intero video è generato dal motore non sono video prerenderizzati
VIDEO (https://youtu.be/WU0gvPcc3jQ)
Ragazzi, se non lo avete visto, guardate questo video del gioco/demo di The Matrix Awakens con Unreal Engine 5
e' pazzesco cosa riesce a fare su console...
se non volete vederlo tutto, scorretelo verso la fine per vedere l'effetto in game, comunque l'intero video è generato dal motore non sono video prerenderizzati
VIDEO (https://youtu.be/WU0gvPcc3jQ)
Dubbioso.... vedremo quando sarà disponibile se effettivamente sarà così..... ma penso proprio di no.
devil_mcry
10-12-2021, 10:39
Ma i profili di msi afterburner come me li backuppo?
Ho smanettato ancora un po' per trovare la quadra, effettivamente al time spy con il ray tracing mi faceva degli artefatti (linee rosse verticali) e ho aggiustato man mano ribassando il clock e correggendo altri punti
il problema è che essendo al limite del tdp chissà se è stabile sempre perché va a frequenze diverse a seconda del momento e non sempre al massimo possibile
detto questo come faccio i backup che ci ho messo ore a muorevere quella curva?
frafelix
10-12-2021, 11:05
Nella cartella di ab c'è la cartella profili o profiles
sertopica
10-12-2021, 11:10
Ragazzi, se non lo avete visto, guardate questo video del gioco/demo di The Matrix Awakens con Unreal Engine 5
e' pazzesco cosa riesce a fare su console...
se non volete vederlo tutto, scorretelo verso la fine per vedere l'effetto in game, comunque l'intero video è generato dal motore non sono video prerenderizzati
VIDEO (https://youtu.be/WU0gvPcc3jQ)
Fa paura, tutti i sistemi che hanno sviluppato negli ultimi anni messi insieme creano qualcosa di assurdo in movimento. Bello anche il video in se' ed i temi trattati inizialmente, ci stanno dicendo che siamo prossimi a quella uncanny valley dove non saremo in grado di distinguere realta' e finzione, ma ci vorranno ancora degli anni prima di arrivarci. :D
Certo, trattandosi di cutscene e sequenze estremamente guidate puoi pompare il dettaglio a piacimento, ma la tecnologia Nanite permettera' davvero di avere un dettaglio infinito anche in ambienti su larga scala.
https://abload.de/img/matrixnaniteview3rke3.png Esempio
Peccato si siano scordati la demo PC per strada.
Dubbioso.... vedremo quando sarà disponibile se effettivamente sarà così..... ma penso proprio di no.
Non credo che ne faranno un gioco, e' una tech demo.
devil_mcry
10-12-2021, 11:10
Nella cartella di ab c'è la cartella profili o profiles
grazie
invece ultima cosa, oltre a techpowerup un posto sicuro per avere i dump dei bios esiste?
Questo è Guardians of the Galaxy su una 3080 in 4K 60Hz e con DLSS attivo.
Come vedi comunque anche se il tizio ha tolto il cap il framerate va anche sotto ai 60(cioè il gioco spinge comunque la vga al massimo anche intorno ai 60fps) ma la frequenza della scheda resta sempre sui 1900 e più.
Per cui secondo me o c'è un qualche bug sui 4K 60Hz vsyncato o qualcos'altro non torna perchè non dovrebbero comunque calare così tanto in frequenza in gaming. Anche con il DLSS attivo.
https://youtu.be/ypTiseu6_Ww?t=133
Boh, è una cosa un pò strana. Al massimo fai una prova. Disattiva ogni vsync, nel pannello nvidia setta un limite di framerate tipo a 65fps e vedi cosa succede.
Che la scheda vada a "1500-1600" su un gioco che maxato in 4K + DLSS Qualità spinge una 3080 al massimo già ad un framerate sui 60fps mi sembra strano.
Dunque, visto che sono in malattia e quindi non ho nulla da fare e avendo ancora Guardians of the Galaxy installato, ho fatto un piccolo esperimento. Non faccio video, perchè sono vecchio e per deformazione professionale capisco meglio con un grafico, ma, ho provato a giocare al primo livello di Guardians of the Galaxy, dall'inizio fino al primo checkpoint, quindi più o meno i primi 5 minuti.
Inizialmente con opzioni grafiche al massimo, attivato tutto il possibile e DLSS impostato su Quality. Poi, stesse impostazioni ma con DLSS su OFF (non scaling della risoluzione e niente altro).
Risoluzione impostata 3840x2160. Il monitor è un 4k freesync e gsync compatible, che funziona nel range 40-60 fps. Per questo motivo, utilizzo la tecnica del MAxFPS-3, quindi ho bloccato i frame a 57 tramite driver nvidia.
La scheda, una Asus 3080 TUF è downvoltata a 1905Mhz/0.85v (1890 Mhz effettivi).
Ho loggato l'attività della gpu, in modo da vedere come si comporta e ho evidenziato 3 parametri: Gpu Frequency, Gpu Load e Power Draw. Avrei voluto anche mettere gli fps, ma avevo dimenticato che gpuz non li mostra, perciò vi dovrete fidare delle mie parole:
DLSS Quality:
57 fps costanti per tutta la durata del test, con un unico calo nei 50 all'inizio, appena usciti dalla cutscene.
Nativo:
Range variabili tra i 40 (probabilmente anche 30 alti) e i 50.
Il primo livello credo sia abbastanza pesante in quanto a RT, con diversi riflessi e giochi di luce, in altri livelli sarebbe sicuramente meno gravoso, ma:
https://i.ibb.co/2vDWvd7/GpuFreq.png (https://ibb.co/2vDWvd7)
In rosso con DLSS Quality, in Verde senza DLSS. Il timing non è perfetto, ma è abbastanza vicino, ci dovrebbero essere un spostamento di 20 secondi. Per quanto riguarda il test senza dlss, più o meno a metà vedete un calo di frequenza, dovuto al fatto che ho messo in pausa per una veloce telefonata. E' stato veloce quindi non ho rifatto il test, ma ovviamente influisce un po' sui risultati, soprattutto la media.
Ricordavo frequenze leggermente più basse per il DLSS, ma probabilmente è dovuto al fatto che il primo livello è più particolare. Ricordo però che siamo in regime di 57fps lisci, contro 40-50 e stutter.
https://i.ibb.co/Bt5nZWH/GpuLoad.png (https://ibb.co/Bt5nZWH)
Gpu load. Valgono le stesse note fatte prima. In DLSS la scheda non va al 100% perchè non ne ha bisogno (e sale quando serve). In nativo, è costantemente al 100% e comunque non basta.
Infine:
https://i.ibb.co/LhSy5zx/GpuPow.png (https://ibb.co/LhSy5zx)
Senza DLSS è costantemente oltre i 300W. Con è mediamente sui 250.
Aggiungo che questo stesso comportamento è riscontrabile tale e quale anche su JWE2, dove in DLSS Quality va liscio mentre senza fa fatica.
Tutto questo per ribadire che secondo me è un comportamento corretto, ed è logico che faccia così. Almeno nella mia testa ha senso.
Scusate per il post chilometrico, ma dovevo tenermi un poco impegnato oggi...
Senza DLSS è costantemente oltre i 300W. Con è mediamente sui 250.
È quello che avevo notato anche io.
Con il dlss la scheda consuma sensibilmente meno.
Non ho ancora capito il perché dato che, almeno nel mio caso, la scheda era comunque al 99% e con dlss si utilizzano ANCHE i tensor core e quindi hai due contributi di consumo
fraussantin
10-12-2021, 13:01
È quello che avevo notato anche io.
Con il dlss la scheda consuma sensibilmente meno.
Non ho ancora capito il perché dato che, almeno nel mio caso, la scheda era comunque al 99% e con dlss si utilizzano ANCHE i tensor core e quindi hai due contributi di consumoSono le ampere in generale che consumano e scaldano moooolto meno a risoluzioni basse. Ma rendono anche meno se non sbaglio.
Non c'entra il dlss.
Se per esempio dal 2k impostate in alcuni giochi l'antialiasing che quadruplica i pixel ( ssaa mi pare ) i consumi a pieno utilizzo della GPU aumentano tanto e il Power limit entra sempre.
Outward mi faceva infiammare la 3080 evga.
E appunto il dlss usa una risoluzione notevolmente più bassa per quello consuma anche meno .
TigerTank
10-12-2021, 13:19
https://i.ibb.co/jgy1MZM/4k-death-stranding.jpg (https://ibb.co/WgkYypy)
4K DLSS quality, completamente maxato. Addirittura non si sono accese le ventole :D
https://i.ibb.co/CQghhL0/3080-stock-2.jpg (https://ibb.co/CQghhL0) https://i.ibb.co/SnCh9tT/3080-stock.jpg (https://ibb.co/SnCh9tT)
Horizon sta tra queste due cifre invece con 4K DLSS su quality e tutto max
Alla fine una 3070 è un 30% più lenta circa
Il Decima engine è uno spettacolo
Dunque, visto che sono in malattia e quindi non ho nulla da fare e avendo ancora Guardians of the Galaxy installato, ho fatto un piccolo esperimento. Non faccio video, perchè sono vecchio e per deformazione professionale capisco meglio con un grafico, ma, ho provato a giocare al primo livello di Guardians of the Galaxy, dall'inizio fino al primo checkpoint, quindi più o meno i primi 5 minuti.
Inizialmente con opzioni grafiche al massimo, attivato tutto il possibile e DLSS impostato su Quality. Poi, stesse impostazioni ma con DLSS su OFF (non scaling della risoluzione e niente altro).
Risoluzione impostata 3840x2160. Il monitor è un 4k freesync e gsync compatible, che funziona nel range 40-60 fps. Per questo motivo, utilizzo la tecnica del MAxFPS-3, quindi ho bloccato i frame a 57 tramite driver nvidia.
La scheda, una Asus 3080 TUF è downvoltata a 1905Mhz/0.85v (1890 Mhz effettivi).
Ho loggato l'attività della gpu, in modo da vedere come si comporta e ho evidenziato 3 parametri: Gpu Frequency, Gpu Load e Power Draw. Avrei voluto anche mettere gli fps, ma avevo dimenticato che gpuz non li mostra, perciò vi dovrete fidare delle mie parole:
DLSS Quality:
57 fps costanti per tutta la durata del test, con un unico calo nei 50 all'inizio, appena usciti dalla cutscene.
Nativo:
Range variabili tra i 40 (probabilmente anche 30 alti) e i 50.
Il primo livello credo sia abbastanza pesante in quanto a RT, con diversi riflessi e giochi di luce, in altri livelli sarebbe sicuramente meno gravoso, ma:
https://i.ibb.co/2vDWvd7/GpuFreq.png (https://ibb.co/2vDWvd7)
In rosso con DLSS Quality, in Verde senza DLSS. Il timing non è perfetto, ma è abbastanza vicino, ci dovrebbero essere un spostamento di 20 secondi. Per quanto riguarda il test senza dlss, più o meno a metà vedete un calo di frequenza, dovuto al fatto che ho messo in pausa per una veloce telefonata. E' stato veloce quindi non ho rifatto il test, ma ovviamente influisce un po' sui risultati, soprattutto la media.
Ricordavo frequenze leggermente più basse per il DLSS, ma probabilmente è dovuto al fatto che il primo livello è più particolare. Ricordo però che siamo in regime di 57fps lisci, contro 40-50 e stutter.
https://i.ibb.co/Bt5nZWH/GpuLoad.png (https://ibb.co/Bt5nZWH)
Gpu load. Valgono le stesse note fatte prima. In DLSS la scheda non va al 100% perchè non ne ha bisogno (e sale quando serve). In nativo, è costantemente al 100% e comunque non basta.
Infine:
https://i.ibb.co/LhSy5zx/GpuPow.png (https://ibb.co/LhSy5zx)
Senza DLSS è costantemente oltre i 300W. Con è mediamente sui 250.
Aggiungo che questo stesso comportamento è riscontrabile tale e quale anche su JWE2, dove in DLSS Quality va liscio mentre senza fa fatica.
Tutto questo per ribadire che secondo me è un comportamento corretto, ed è logico che faccia così. Almeno nella mia testa ha senso.
Scusate per il post chilometrico, ma dovevo tenermi un poco impegnato oggi...
Grazie dei post ragazzi(e per il tempo dedicato). Interessanti.
Evidentemente ci sono comportamenti e comportamenti a seconda dei contesti in cui si usano le schede, dei modelli o magari anche delle curve impostate.
A vedere i vostri screen verrebbe dire che una 3080Ti o una 3090 nelle stesse condizioni(4K@60fps) dovrebbero praticamente dormire :D
Vediamo se qualcuno fa qualche prova a riguardo.
A me non è mai calata così tanto(il minimo che ho visto sono i 1800MHz in situazioni leggere) e non sto nemmeno in 4K(3440x1440 con gsync nativo).
Appena ho tempo provo a rimettere anch'io in particolare Horizon Zero Dawn.
Alekos Panagulis
10-12-2021, 14:00
Grazie dei post ragazzi(e per il tempo dedicato). Interessanti.
Evidentemente ci sono comportamenti e comportamenti a seconda dei contesti in cui si usano le schede, dei modelli o magari anche delle curve impostate.
A vedere i vostri screen verrebbe dire che una 3080Ti o una 3090 nelle stesse condizioni(4K@60fps) dovrebbero praticamente dormire :D
Vediamo se qualcuno fa qualche prova a riguardo.
A me non è mai calata così tanto(il minimo che ho visto sono i 1800MHz in situazioni leggere) e non sto nemmeno in 4K(3440x1440 con gsync nativo).
Appena ho tempo provo a rimettere anch'io in particolare Horizon Zero Dawn.
La mia 3080ti con DLLS qualità lavora al 60% e gira intorno ai 100-100 fps con 250w di consumo.
Senza DLSS arriva a 400w e gira intorno a 80fps.
mikael84
10-12-2021, 14:29
È quello che avevo notato anche io.
Con il dlss la scheda consuma sensibilmente meno.
Non ho ancora capito il perché dato che, almeno nel mio caso, la scheda era comunque al 99% e con dlss si utilizzano ANCHE i tensor core e quindi hai due contributi di consumo
Nvidia effettua una suddivisione tra shading e AI. Alle operazioni tensor dedica il 20%, ed il restante allo shading, dati che possono anche variare.
Oltre alla res. minore, anche lo shading diminuisce per far spazio ad alcuni calcoli matriciali fp16.
Cutter90
10-12-2021, 14:37
La mia 3080ti con DLLS qualità lavora al 60% e gira intorno ai 100-100 fps con 250w di consumo.
Senza DLSS arriva a 400w e gira intorno a 80fps.
in 4k maxato? non penso. Guarda i miei screen. Con il dlss qualità 100-120 fps, ma la gpu è al 100%. E con la 3090. Con la 3080 ti di certo non vai di più, nè puoi avere il 60 % di gpu quando io ne ho il 100%.
Predator_1982
10-12-2021, 17:41
Scusate per il post chilometrico, ma dovevo tenermi un poco impegnato oggi...
Ma voi i giochi li usate solo come bench ? :muro: :D
Scherzi a parte. Mi interessa solo una cosa: sto gioco merita? :fagiano:
Ma voi i giochi li usate solo come bench ? :muro: :D
Scherzi a parte. Mi interessa solo una cosa: sto gioco merita? :fagiano:
In giro non ne parlano proprio bene...
TigerTank
10-12-2021, 21:01
Ma voi i giochi li usate solo come bench ? :muro: :D
Scherzi a parte. Mi interessa solo una cosa: sto gioco merita? :fagiano:
Ma sì, si è fatta una discussione "tecnica" sul comportamento delle schede a seconda delle situazioni :)
Alla fine io credo di aver capito che chi ha monitor da gaming o gioca senza cap ovviamente non se ne accorge e vede solo i tagli soliti ed eventuali da PL o temp ma in effetti queste schede sui cap di framerate più limitanti (60 in giù) danno dei tagli davvero consistenti di frequenza.
Per esempio ho emulato una 3840x2160 e usato Diablo 2 con DLSS e comodo cursore di framerate. A 60 a me mantiene comunque la frequenza massima ma abbassando a 50 e a 40fps si creano situazioni che non avevo mai visto/di cui non mi ero accorto causa schermo da gaming.
No cap(120fps)
http://i.imgur.com/IlvQfARl.jpg (https://imgur.com/IlvQfAR)
Cap a 60 fps:
http://i.imgur.com/pAuEFj8l.jpg (https://imgur.com/pAuEFj8)
Cap a 50fps:
http://i.imgur.com/XSaGQfKl.jpg (https://imgur.com/XSaGQfK)
Cap a 40fps:
http://i.imgur.com/SML3AXql.jpg (https://imgur.com/SML3AXq)
Evidentemente un framerate limitato a questi livelli sommato al DLSS da questi tagli consistenti. Solo che chi gioca su schermi più spinti non li vede praticamente mai.
Se mi girerà proverò a collegare il pc alla tv 4K in salotto e vedere anche lì.
Alekos Panagulis
10-12-2021, 23:51
in 4k maxato? non penso. Guarda i miei screen. Con il dlss qualità 100-120 fps, ma la gpu è al 100%. E con la 3090. Con la 3080 ti di certo non vai di più, nè puoi avere il 60 % di gpu quando io ne ho il 100%.
Scusa ho scritto una minchiata. Confondevo la percentuale di rotazione della ventola con il carico della gpu.
Cutter90
11-12-2021, 06:49
Scusa ho scritto una minchiata. Confondevo la percentuale di rotazione della ventola con il carico della gpu.
Ah ecco. No ma mi pareva strano infatti!
Cmq mi sono messo seriamente ad undervoltare. Il problema è che non se ne esce. Se in Horiozn con 1.000 riesco a fare 2070 stabili (con risparmio di 60 watt, sto sui 360 watt così, risparmio di 6-7 gradi, ossia sui 60 e perdita di 1-2, fps rispetto al mio oc standard), con Halo Infinite lo stesso profilo fa crashare il gioco. Ciò significa che devo trovarne uno con la frequenza stock ma con meno mVolt se voglio ottimizzare. Il problema poi è che magari lo trovo con Halo e poi con un altro gioco ancora crasha. Horizon è molto più permesso di Halo. Diciamo che se trovassi un undervolt giusto per halo allora dovrei avere 2 profili "stabili" in base ai giochi. Ma che palle...
sertopica
11-12-2021, 07:31
Ah ecco. No ma mi pareva strano infatti!
Cmq mi sono messo seriamente ad undervoltare. Il problema è che non se ne esce. Se in Horiozn con 1.000 riesco a fare 2070 stabili (con risparmio di 60 watt, sto sui 360 watt così, risparmio di 6-7 gradi, ossia sui 60 e perdita di 1-2, fps rispetto al mio oc standard), con Halo Infinite lo stesso profilo fa crashare il gioco. Ciò significa che devo trovarne uno con la frequenza stock ma con meno mVolt se voglio ottimizzare. Il problema poi è che magari lo trovo con Halo e poi con un altro gioco ancora crasha. Horizon è molto più permesso di Halo. Diciamo che se trovassi un undervolt giusto per halo allora dovrei avere 2 profili "stabili" in base ai giochi. Ma che palle...
Ma probabilmente ti basta scendere di 20-30 MHz e ti regge. Personalmente non ho notato grandi differenze con la scheda a 2038MHz o giu' di li' e 2070. Fra l'altro una volta che hai trovato una frequenza stabile di solito scendi di uno step ed usi quella per stare sicuro. O almeno io ho fatto sempre cosi'. :D
Cutter90
11-12-2021, 08:37
Ma probabilmente ti basta scendere di 20-30 MHz e ti regge. Personalmente non ho notato grandi differenze con la scheda a 2038MHz o giu' di li' e 2070. Fra l'altro una volta che hai trovato una frequenza stabile di solito scendi di uno step ed usi quella per stare sicuro. O almeno io ho fatto sempre cosi'. :D
Eh. Ma se scendo mi cala di altri 2 fps a 2038. 2+2 fa 4... ok i 60 watt in meno, ma 4 fps sono troppi per me. Farò altri test
Alekos Panagulis
11-12-2021, 09:11
Ah ecco. No ma mi pareva strano infatti!
Cmq mi sono messo seriamente ad undervoltare. Il problema è che non se ne esce. Se in Horiozn con 1.000 riesco a fare 2070 stabili (con risparmio di 60 watt, sto sui 360 watt così, risparmio di 6-7 gradi, ossia sui 60 e perdita di 1-2, fps rispetto al mio oc standard), con Halo Infinite lo stesso profilo fa crashare il gioco. Ciò significa che devo trovarne uno con la frequenza stock ma con meno mVolt se voglio ottimizzare. Il problema poi è che magari lo trovo con Halo e poi con un altro gioco ancora crasha. Horizon è molto più permesso di Halo. Diciamo che se trovassi un undervolt giusto per halo allora dovrei avere 2 profili "stabili" in base ai giochi. Ma che palle...Guarda io ho rinunciato all'undervolt proprio per questo motivo. Sembra tutto ok e poi arriva il gioco con cui crasha....una rottura di coglioni immensa. Preferisco tenere a stock e giocare, anche perché il tempo a disposizione è poco.
Inviato dal mio IN2023 utilizzando Tapatalk
aggiorno la situazione relativa ai pad dell'alphacool con la rtx 3080: ho cambiato i pad del cooler con quelli extreme della gelid da 1,5 mm ed effettivamente la junction temperature e' scesa da 80 a 58 gradi in superposition ma mi e' aumentata quella della gpu da circa 50 a 60 gradi. Ho mantenuto i pad dell'alphacool per il blackplate in quanto aderiscono perfettamente al limite li cambio con quelli della thermalright. Tirando le somme sono proprio i pad da 1 mm forniti con il kit ad essere non proprio di alta qualita' e secondo me anche un po'troppo sottili.
Guarda io ho rinunciato all'undervolt proprio per questo motivo. Sembra tutto ok e poi arriva il gioco con cui crasha....una rottura di coglioni immensa. Preferisco tenere a stock e giocare, anche perché il tempo a disposizione è poco.
Inviato dal mio IN2023 utilizzando Tapatalk
Infatti io faccio 3 profili diversi, come va in crash setto quello più alto e via...
Ma voi i giochi li usate solo come bench ? :muro: :D
Scherzi a parte. Mi interessa solo una cosa: sto gioco merita? :fagiano:
Guardians of the galaxy? Assolutamente si.
TigerTank
11-12-2021, 14:18
Ieri mi hanno spedito dall'Illinois i famosi pads specifici per la mia scheda, con tanto di tracking. Vi farò sapere come va a finire :D
Guarda io ho rinunciato all'undervolt proprio per questo motivo. Sembra tutto ok e poi arriva il gioco con cui crasha....una rottura di coglioni immensa. Preferisco tenere a stock e giocare, anche perché il tempo a disposizione è poco.
Inviato dal mio IN2023 utilizzando Tapatalk
Infatti io faccio 3 profili diversi, come va in crash setto quello più alto e via...
Esatto Alekos, basta che fai così, setti dei profili associati a tasti rapidi e via.
Io comunque ne ho giusti 3 (default, 0,95V, 1,00V). Di voltaggio non scendo troppo altrimenti aumentano i rischi di instabilità.
devil_mcry
11-12-2021, 14:34
la mia con 1v pare tenere solo i 1900mhz
mentre horizon è stabile a 2ghz a 1.085:(
il problema che non so cosa succede dopo, comunque avendo il tdp che limita faccio ancora più fatica a settare la curva :(
finalmente dopo un anno tra pc nuovo e patch varie è il momento di provare cyberpunk.
penso lo giocherò in wqhd con mouse e tastiera ma sono curioso di provarlo anche in 4k sul tv :D
vediamo come spinge sta 80Ti :Perfido:
finalmente dopo un anno tra pc nuovo e patch varie è il momento di provare cyberpunk.
penso lo giocherò in wqhd con mouse e tastiera ma sono curioso di provarlo anche in 4k sul tv :D
vediamo come spinge sta 80Ti :Perfido:
Con la 3070ti in 2K è giocabile?
Con la 3070ti in 2K è giocabile?
non ne ho idea ma penso proprio di si (se per 2k intendi 1440p)
TigerTank
11-12-2021, 15:59
Con la 3070ti in 2K è giocabile?
Diciamo che i settings ufficiali consigliati sono QUESTI (https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-optimize-rtx-settings/GF-RTX-Cyberpunk2077-Graphics%20Settings-1440p-2048x1024-v2.jpg). Poi sta a te smanettare un pò. Prova magari a prendere come riferimento quelli della 3080, poi personalizzi ad esempio se trovi il DLSS balanced poco accettabile e preferisci una qualità superiore(soprattutto ora che è evoluto), ecc...
(THE REAL) Neo
11-12-2021, 23:40
Ma probabilmente ti basta scendere di 20-30 MHz e ti regge. Personalmente non ho notato grandi differenze con la scheda a 2038MHz o giu' di li' e 2070. Fra l'altro una volta che hai trovato una frequenza stabile di solito scendi di uno step ed usi quella per stare sicuro. O almeno io ho fatto sempre cosi'. :DMa infatti.
All'inizio smadonni,con la curva voltaggi,ma dopo qualche giorno di test,con i titoli che usi,trovi la quadra.
O alzi uno step i mV,o scendi di 15 Mhz sul clock.
Alla fine,trovi il setting che piú si addice al tuo pezzo di silicio,e via.
Io per esempio,ho trovato lo sweet spot,a 2000 Mhz@986 mV.
Posso far girare qualsiasi applicazione,é rock solid,sia in game che in benchmark.
amon.akira
12-12-2021, 02:31
ragazzi "in linea di massima" non tenete conto dei mV ma del clock che date, esempio se la mia non regge +165mhz ma regge +150, mi atterrò a +150 sia se parto da 900mv sia 950 etc... ovviamente uno step di 15mhz ci può stare sopratutto se siete vicino al limite.
se con un gioco scoprite che +150crasha allora il vostro prossimo step sarà +135
cmq eviterei anche il discorso profilo instabile con un gioco ma stabile con un altro...non ce la farei a sapere di usare un profilo instabile. trovate la stabilità e lo tenete per tutti imho.
al max posso capire 2profili stabili ma differenziati per pl, esempio 0.900 +150 oppure 0.950 +150
Gilgamessh
12-12-2021, 06:17
io con una 3090 da PL 390 vado bene 900 e 1905
ragazzi "in linea di massima" non tenete conto dei mV ma del clock che date, esempio se la mia non regge +165mhz ma regge +150, mi atterrò a +150 sia se parto da 900mv sia 950 etc... ovviamente uno step di 15mhz ci può stare sopratutto se siete vicino al limite.
se con un gioco scoprite che +150crasha allora il vostro prossimo step sarà +135
cmq eviterei anche il discorso profilo instabile con un gioco ma stabile con un altro...non ce la farei a sapere di usare un profilo instabile. trovate la stabilità e lo tenete per tutti imho.
al max posso capire 2profili stabili ma differenziati per pl, esempio 0.900 +150 oppure 0.950 +150
Anche io la vedo così. Se su un gioco è instabile, prima di salire con i mv abbasso leggermente la frequenza, dando la priorità alle temperature e ai consumi
fraussantin
12-12-2021, 08:58
Io era un bel po' che stavo a 900@1900 adesso , appurato che il 99% dei problemi del mio PC erano quelle penose ram della gskill , proverò a vedere se su 900 mVriesco a spingere oltre.
Ah ecco. No ma mi pareva strano infatti!
Cmq mi sono messo seriamente ad undervoltare. Il problema è che non se ne esce. Se in Horiozn con 1.000 riesco a fare 2070 stabili (con risparmio di 60 watt, sto sui 360 watt così, risparmio di 6-7 gradi, ossia sui 60 e perdita di 1-2, fps rispetto al mio oc standard), con Halo Infinite lo stesso profilo fa crashare il gioco. Ciò significa che devo trovarne uno con la frequenza stock ma con meno mVolt se voglio ottimizzare. Il problema poi è che magari lo trovo con Halo e poi con un altro gioco ancora crasha. Horizon è molto più permesso di Halo. Diciamo che se trovassi un undervolt giusto per halo allora dovrei avere 2 profili "stabili" in base ai giochi. Ma che palle...
toglie 30 mhz al profilo che usi per horizon e sei a posto con ogni gioco
aggiorno la situazione relativa ai pad dell'alphacool con la rtx 3080: ho cambiato i pad del cooler con quelli extreme della gelid da 1,5 mm ed effettivamente la junction temperature e' scesa da 80 a 58 gradi in superposition ma mi e' aumentata quella della gpu da circa 50 a 60 gradi. Ho mantenuto i pad dell'alphacool per il blackplate in quanto aderiscono perfettamente al limite li cambio con quelli della thermalright. Tirando le somme sono proprio i pad da 1 mm forniti con il kit ad essere non proprio di alta qualita' e secondo me anche un po'troppo sottili.
Bono sapere che hai risolto, la soluzione a questo giro sembrano essere pad a step da 0,25mm:muro:
Ieri mi hanno spedito dall'Illinois i famosi pads specifici per la mia scheda, con tanto di tracking. Vi farò sapere come va a finire :D
Rimango in attesa di aggiornamenti. Se riesci a fare prove prima/dopo con core, core hotspot e memory hotspot a parità di velocità della ventola (60% tipo) sarebbe fantastico.
Ho confermato con lui e fa i pad della 3080 a 1,75mm
devil_mcry
12-12-2021, 13:14
Io se può essere d'aiuto ho trovato anche utile fare girare il time spy più volte, la versione demo
A me era stabile in gioco ma dava artefatti al time spy per il ray tracing
TigerTank
12-12-2021, 13:30
Rimango in attesa di aggiornamenti. Se riesci a fare prove prima/dopo con core, core hotspot e memory hotspot a parità di velocità della ventola (60% tipo) sarebbe fantastico.
Ho confermato con lui e fa i pad della 3080 a 1,75mm
Sicuramente ;)
Intanto spero partano e arrivino visto che ieri in quelle zone degli USA c'è stato il delirio a livello di tornado, stile film catastrofici "di fantasia" del passato. :mc:
Da quello che ho capito da gennaio ha in programma dei kit anche per altri modelli di vga e se non ho capito male quello per 3080FE sarebbe adatto anche per la 3080Ti FE.
In un commento scrive:
"The 3080Ti FE has the exact same layout as the 3080 FE (same is true for 3080/3080Ti FTW3 and also for 3080/3080Ti XC3), as noted beside the two additional memory modules (12 GB vs 10 GB).
The 3080 sets all do have pads for all 12 potential memory modules.
Locations and thicknesses are the exact same for the 3080 and 3080Ti (at least for Nvidia and EVGA)."
LINK (https://www.reddit.com/r/hardwareswap/comments/rc0ftg/usail_h_extremely_high_conductivity_thermal_pads/).
non ne ho idea ma penso proprio di si (se per 2k intendi 1440p)
Si intendevo 1440p
Diciamo che i settings ufficiali consigliati sono QUESTI (https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-optimize-rtx-settings/GF-RTX-Cyberpunk2077-Graphics%20Settings-1440p-2048x1024-v2.jpg). Poi sta a te smanettare un pò. Prova magari a prendere come riferimento quelli della 3080, poi personalizzi ad esempio se trovi il DLSS balanced poco accettabile e preferisci una qualità superiore(soprattutto ora che è evoluto), ecc...
Thank you ;)
Thunder-74
13-12-2021, 07:40
Presunta azienda mineraria dotata di NVIDIA GeForce RTX 4090 Ti e AMD Radeon RX 7000 individuata, oltre 3 TH/s di hash rate effettivo
LINK (https://wccftech.com/alleged-nvidia-geforce-rtx-4090-ti-amd-radeon-rx-7000-equipped-mining-farm-spotted-over-3-th-s-effective-hash-rate/)
..sembra pazzesco, ma una presunta mining farm dotata di schede grafiche NVIDIA GeForce RTX 4090 Ti e AMD Radeon RX 7000 di nuova generazione è stata avvistata a Flexpool. Le mining farm di solito includono diverse centinaia o addirittura migliaia di schede grafiche in esecuzione in parallelo per estrarre l'oro crittografico, ma questa configurazione specifica è semplicemente pazzesca e troppo bella per essere reale....
BOH........
TigerTank
13-12-2021, 08:20
Presunta azienda mineraria dotata di NVIDIA GeForce RTX 4090 Ti e AMD Radeon RX 7000 individuata, oltre 3 TH/s di hash rate effettivo
LINK (https://wccftech.com/alleged-nvidia-geforce-rtx-4090-ti-amd-radeon-rx-7000-equipped-mining-farm-spotted-over-3-th-s-effective-hash-rate/)
..sembra pazzesco, ma una presunta mining farm dotata di schede grafiche NVIDIA GeForce RTX 4090 Ti e AMD Radeon RX 7000 di nuova generazione è stata avvistata a Flexpool. Le mining farm di solito includono diverse centinaia o addirittura migliaia di schede grafiche in esecuzione in parallelo per estrarre l'oro crittografico, ma questa configurazione specifica è semplicemente pazzesca e troppo bella per essere reale....
BOH........
Se non è una bufala prepariamoci ad una situazione anche peggiore di quella vissuta con le attuali.
fraussantin
13-12-2021, 08:36
Se non è una bufala prepariamoci ad una situazione anche peggiore di quella vissuta con le attuali.Che la situazione sarà peggiore è probabile , ma quello che non ho capito è come fanno ad averci le 4090 .
Non le ha manco nvidia :O crediamoci......
Che la situazione sarà peggiore è probabile , ma quello che non ho capito è come fanno ad averci le 4090 .
Sul miner puoi scrivere il nome che ti pare, potrebbero anche scrivere 5090Ti poco cambia, come dice anche l'articolo in fondo, potrebbero tranquillamente essere 100 Asic da 3Gh/s di quelli nuovi. Certo è che se fosse vero sarebbe un bello schifo e confermerebbe quello che ho sempre detto, il problema non sono i miners casalinghi o semi/casalinghi, ma le farm, che comprano a monte senza che le schede nemmeno arrivino sul mercato, decine di migliaia di pezzi alla volta. Senza contare che poi potrebbero benissimo rimandarle al mittente che le imbusta e le vende per nuove o peggio, un bello schifo.
Senza contare che poi potrebbero benissimo rimandarle al mittente che le imbusta e le vende per nuove o peggio, un bello schifo.
Mi sono perso qualcosa di sicuro, eri in attesa di una 3080TI l'ultima volta che ti ho letto, leggo in firma una 3090, come mai hai cambiato idea ? :confused:
Mi sono perso qualcosa di sicuro, eri in attesa di una 3080TI l'ultima volta che ti ho letto, leggo in firma una 3090, come mai hai cambiato idea ? :confused:
Ho cambiato idea perchè la 3090l'ho pagata 2050 euro sul mercatino e una 3080Ti la pagavo 2100 e fischia da draKo che continuava a sbattermi in dietro nelle code, poi considera che mentre non gioco io ci mino con la scheda, quindi una 3080Ti essendo LHR mi faceva ampiamente pettare all'epoca, ora la sitazione Lhr è migliorata parecchio divendano quasi una barzelletta, tuttavia i consumi rimandgono alti a fronte comunque di uno sblocco del 75%. :D
In parole povere una 3090 o una 3080Ti in ambito gaming non cambia una mazza, ma se ci mini anche una 3090 a liquido fa 125 Mh/s con 310W una 3080Ti ne fa circa 85/90 con oltre 250W (oltre ai mille sbatti per la questione LHR), la differenza 60W per 35Mh/s è praticamente una scheda a se (vedi una 6600XT), quindi 3090 tutta la vita.
mikael84
13-12-2021, 11:23
Presunta azienda mineraria dotata di NVIDIA GeForce RTX 4090 Ti e AMD Radeon RX 7000 individuata, oltre 3 TH/s di hash rate effettivo
LINK (https://wccftech.com/alleged-nvidia-geforce-rtx-4090-ti-amd-radeon-rx-7000-equipped-mining-farm-spotted-over-3-th-s-effective-hash-rate/)
..sembra pazzesco, ma una presunta mining farm dotata di schede grafiche NVIDIA GeForce RTX 4090 Ti e AMD Radeon RX 7000 di nuova generazione è stata avvistata a Flexpool. Le mining farm di solito includono diverse centinaia o addirittura migliaia di schede grafiche in esecuzione in parallelo per estrarre l'oro crittografico, ma questa configurazione specifica è semplicemente pazzesca e troppo bella per essere reale....
BOH........
Le schede non esistono Thunder.;)
Thunder-74
13-12-2021, 14:08
Le schede non esistono Thunder.;)
Si figurati, tanto per cazzeggio :)
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
13-12-2021, 15:34
Le schede non esistono Thunder.;)
Probabilmente l'autore dell'articolo ha passato la domenica in compagnia di Yogi & Regi :asd:
devil_mcry
13-12-2021, 21:23
ma su windows 11 le immagini jxr hdr di geforce experience con cosa si possono aprire? l’app che usavo si windows 10 non va, foto nemmeno…
frafelix
14-12-2021, 13:03
Salve gente, dando un'occhiata alla nuova scheda madre vedo che c'è un connettore a 6 pin per l'alimentazione della scheda video, però non ho capito bene a cosa serve... Fornisce 33 watt in più al connettore pcie, ma serve lo stesso se ho anche i connettori che vanno alla scheda video?
https://i.postimg.cc/HcxrpwkN/Apex.jpg (https://postimg.cc/HcxrpwkN)
fraussantin
14-12-2021, 13:37
Salve gente, dando un'occhiata alla nuova scheda madre vedo che c'è un connettore a 6 pin per l'alimentazione della scheda video, però non ho capito bene a cosa serve... Fornisce 33 watt in più al connettore pcie, ma serve lo stesso se ho anche i connettori che vanno alla scheda video?
https://i.postimg.cc/HcxrpwkN/Apex.jpg (https://postimg.cc/HcxrpwkN)
Visto così sembra utile per fare lo shunt in "sicurezza" ma onestamente non saprei
razor820
14-12-2021, 13:57
Qualcuno ha provato bracket di ottima qualità per 3080 liquidate?
Da quando ho installato quel mattone del wb EK per la FE, la scheda adesso è ancora più pesante, e ho come l impressione che sia un pelino inclinata. Anche se per ora il pci rinforzato regge
Salve gente, dando un'occhiata alla nuova scheda madre vedo che c'è un connettore a 6 pin per l'alimentazione della scheda video, però non ho capito bene a cosa serve... Fornisce 33 watt in più al connettore pcie, ma serve lo stesso se ho anche i connettori che vanno alla scheda video?
https://i.postimg.cc/HcxrpwkN/Apex.jpg (https://postimg.cc/HcxrpwkN)
Leggendo online pare che serva quando si hanno configurazioni multi gpu. Inoltre alcune schede video vanno "fuori specifica" nel richiedere troppa alimentazione allo slot pcie. Il 24 pin ha solo due cavi 12v per lo slot pcie e può solo supportare 75W, quindi aggiungere altri cavi dovrebbe rendere più sicuro il tutto. Diciamo che mi sembra che i requisiti energetici delle scede più esose si siano evoluti negli anni e il 6 pin può essere visto come un supplemento al 24v per lo slot pcie. È speculazione da parte mia ma non penso di essere andato lontano dalla realtà.
mikael84
14-12-2021, 15:00
Si figurati, tanto per cazzeggio :)
Inviato dal mio iPhone X utilizzando Tapatalk
No, hai fatto bene a pubblicarla, poi si commenta.:)
Probabilmente l'autore dell'articolo ha passato la domenica in compagnia di Yogi & Regi :asd:
:p Cosa mi hai ricordato...
Cmq Tiger, per te
https://www.youtube.com/watch?v=8tZCyz1jB7Y&t=170s&ab_channel=Everyeye.it
frafelix
14-12-2021, 15:05
Buffo, ora vado nel thread degli alder lake a chiedere se le loro schede madri lo hanno. Perché o è una novità di asus o degli alder per il pcie5 magari
FrancoBit
14-12-2021, 15:19
Buffo, ora vado nel thread degli alder lake a chiedere se le loro schede madri lo hanno. Perché o è una novità di asus o degli alder per il pcie5 magari
Penso sia prerogativa delle Apex e Tachyon, comunque solo delle mother da ln2
TigerTank
14-12-2021, 15:22
:p Cosa mi hai ricordato...
Cmq Tiger, per te
https://www.youtube.com/watch?v=8tZCyz1jB7Y&t=170s&ab_channel=Everyeye.it
Mi intrippa assai! :cool:
Ma hai visto pure il "gameplay" di Matrix Awakens (https://youtu.be/wEMKLSf_two?t=548) in UE5 già su PS5? :eek:
Chissà su pc...
Ok che questa è una tech demo ma direi che le potenzialità dell'UE5 sono enormi in ambito fotorealismo.
Penso sia prerogativa delle Apex e Tachyon, comunque solo delle mother da ln2
Non lo hanno tutte le mobo ma c'era già prima. Ad esempio sulle Evga FTW Z390 (https://www.tomshw.it/hardware/z390-dark-e-z390-ftw-evga-pronta-per-le-nuove-cpu-intel/)(in basso a sinistra).
sto giocando finalmente cyberpunk, ammazza che mattone pure in 1440p
mikael84
14-12-2021, 19:07
Salve gente, dando un'occhiata alla nuova scheda madre vedo che c'è un connettore a 6 pin per l'alimentazione della scheda video, però non ho capito bene a cosa serve... Fornisce 33 watt in più al connettore pcie, ma serve lo stesso se ho anche i connettori che vanno alla scheda video?
Non serve praticamente a nulla per l'uso normale, salvo non avere GPU che sbordano il pciexpress
Mi intrippa assai! :cool:
Ma hai visto pure il "gameplay" di Matrix Awakens (https://youtu.be/wEMKLSf_two?t=548) in UE5 già su PS5? :eek:
Chissà su pc...
Ok che questa è una tech demo ma direi che le potenzialità dell'UE5 sono enormi in ambito fotorealismo.
L'ho visto, speriamo che si possa fare quel balzo che aspettiamo da anni. Con quel motore Stalker diventa davvero interessante. Bel test per le Lovelace.:D
Cutter90
15-12-2021, 08:44
sto giocando finalmente cyberpunk, ammazza che mattone pure in 1440p
Cp 2077 o si gioca con DLSS oppure è un mattone assurdo ingiustificato
Cp 2077 o si gioca con DLSS oppure è un mattone assurdo ingiustificato
vero ma per adesso sto giocando senza perché quella patina che mette non mi piace per niente. certo, mille volte meglio del fidelity che letteralmente distrugge i giochi ma comunque lo si nota lo stesso.
Cutter90
15-12-2021, 16:08
vero ma per adesso sto giocando senza perché quella patina che mette non mi piace per niente. certo, mille volte meglio del fidelity che letteralmente distrugge i giochi ma comunque lo si nota lo stesso.
La sfuocatura (quella è la patina poi) che crea la si può aggiustare con un cambiamento della nitidezza.
La sfuocatura (quella è la patina poi) che crea la si può aggiustare con un cambiamento della nitidezza.
Dove?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ale55andr0
15-12-2021, 21:53
Cp 2077 o si gioca con DLSS oppure è un mattone assurdo ingiustificato
spegni l'RT e vedrai che vola
Adone_1985
16-12-2021, 00:23
spegni l'RT e vedrai che vola
E che le abbiamo comprate a fare:D
Ottimizzassero meglio i giochi magari
sertopica
16-12-2021, 07:14
Dove?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Da nvidia inspector vai al profilo di cyberpunk e setti il texture filtering - lod bias (dx) a -0.500 oltre a settare "texture filtering - negative lod bias" su "allow". Questo aumentera' la nitidezza delle textures distanti andando ad influire sulle mipmaps che a causa di una mancanza dei programmatori vengono visualizzate ad una qualita' inferiore risultando sfocate. Questo accade solo quando utilizzi il DLSS.
Poi apri il pannello nvidia e metti lo sharpening a 0.5 ed ignore film grain a 0.24. Se hai gli ultimi driver nvidia e vuoi far ritornare il vecchio sharpening (per me molto meglio del nuovo) rinunciando pero' a NIS devi andare sotto "adjust desktop size and position" e selezionare "gpu scaling" oltre a "integer scaling". Applica e ti ritrovi con le vecchie opzioni.
Ovviamente se vuoi prestazioni migliori ti consiglio di disabilitare ombre e illuminazione RT, ma almeno tieni i riflessi che con le cubemaps+ssr fa abbastanza pieta'.
Cutter90
16-12-2021, 07:15
Dove?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Io lo facevo da pannello Nvidia ma ora che l'hanno legato con NIS non penso si possa regolare singolarmente. Infatti in realtà tutti i giochi con dlss ormai hanno la regolazione della nitidezza ingame. Tranne ovviamente CP2077. L'incapacità e la lentezza degli sviluppatori di quel gioco non smette mai di sorpremdermi
spegni l'RT e vedrai che vola
Ah beh grazie tante. Spegnere l'RT in uno dei giochi in cui se ne fa uso più massiccio. Geniale:mc:
Se ha un scheda giusta per il 1440p non c'è motivo di spegnerlo.
sertopica
16-12-2021, 07:29
Io lo facevo da pannello Nvidia ma ora che l'hanno legato con NIS non penso si possa regolare singolarmente. Infatti in realtà tutti i giochi con dlss ormai hanno la regolazione della nitidezza ingame. Tranne ovviamente CP2077. L'incapacità e la lentezza degli sviluppatori di quel gioco non smette mai di sorpremdermi
Leggi il mio post sopra. :D
Cutter90
16-12-2021, 07:39
Leggi il mio post sopra. :D
Si si ho letto dopo :D
sertopica
16-12-2021, 08:16
Si si ho letto dopo :D
Ah ok. Cmq il nuovo sharpening con NIS si ciuccia circa il 10% risorse anche se messo su 0% dalle impostazioni globali da quello che ho letto... Per me meglio starne alla larga.
Adone_1985
16-12-2021, 08:19
Qualcuno ha provato bracket di ottima qualità per 3080 liquidate?
Da quando ho installato quel mattone del wb EK per la FE, la scheda adesso è ancora più pesante, e ho come l impressione che sia un pelino inclinata. Anche se per ora il pci rinforzato regge
Si ma fai attenzione, queste schede sono molto pesanti, non centra il pc ma è l’attacco pcie che si potrebbe rompere, compra un supporto che va collocato sotto la vga….meglio quello che va fissato sotto la scheda tipo SLI ;)
Da nvidia inspector vai al profilo di cyberpunk e setti il texture filtering - lod bias (dx) a -0.500 oltre a settare "texture filtering - negative lod bias" su "allow". Questo aumentera' la nitidezza delle textures distanti andando ad influire sulle mipmaps che a causa di una mancanza dei programmatori vengono visualizzate ad una qualita' inferiore risultando sfocate. Questo accade solo quando utilizzi il DLSS.
Poi apri il pannello nvidia e metti lo sharpening a 0.5 ed ignore film grain a 0.24. Se hai gli ultimi driver nvidia e vuoi far ritornare il vecchio sharpening (per me molto meglio del nuovo) rinunciando pero' a NIS devi andare sotto "adjust desktop size and position" e selezionare "gpu scaling" oltre a "integer scaling". Applica e ti ritrovi con le vecchie opzioni.
Ovviamente se vuoi prestazioni migliori ti consiglio di disabilitare ombre e illuminazione RT, ma almeno tieni i riflessi che con le cubemaps+ssr fa abbastanza pieta'.
Serve per forza Nvidia Inspector o è possibile attivare la funzione del LOD neg. anche da pannello di controllo Nvidia, quello base per intenderci?
Da nvidia inspector vai al profilo di cyberpunk e setti il texture filtering - lod bias (dx) a -0.500 oltre a settare "texture filtering - negative lod bias" su "allow". Questo aumentera' la nitidezza delle textures distanti andando ad influire sulle mipmaps che a causa di una mancanza dei programmatori vengono visualizzate ad una qualita' inferiore risultando sfocate. Questo accade solo quando utilizzi il DLSS.
Poi apri il pannello nvidia e metti lo sharpening a 0.5 ed ignore film grain a 0.24. Se hai gli ultimi driver nvidia e vuoi far ritornare il vecchio sharpening (per me molto meglio del nuovo) rinunciando pero' a NIS devi andare sotto "adjust desktop size and position" e selezionare "gpu scaling" oltre a "integer scaling". Applica e ti ritrovi con le vecchie opzioni.
Ovviamente se vuoi prestazioni migliori ti consiglio di disabilitare ombre e illuminazione RT, ma almeno tieni i riflessi che con le cubemaps+ssr fa abbastanza pieta'.
plug and pray, proprio :stordita:
sertopica
16-12-2021, 11:11
Serve per forza Nvidia Inspector o è possibile attivare la funzione del LOD neg. anche da pannello di controllo Nvidia, quello base per intenderci?
No, ti serve Inspector.
plug and pray, proprio :stordita:
:asd:
Piu' lungo a scriverlo che a farlo.
slide1965
16-12-2021, 13:23
Quali sono attualmente i giochi dove avere il rt arrivo fa la differenza?
A parte Control , cp2077 e Metro che ho già giocato.
Quali sono attualmente i giochi dove avere il rt arrivo fa la differenza?
A parte Control , cp2077 e Metro che ho già giocato.
Resident Evil Village ha un buon effetto ma non quanto i titoli qui sopra.
Quali sono attualmente i giochi dove avere il rt arrivo fa la differenza?
A parte Control , cp2077 e Metro che ho già giocato.
Quello delle biglie :O
alexxx19
16-12-2021, 15:08
Quali sono attualmente i giochi dove avere il rt arrivo fa la differenza?
A parte Control , cp2077 e Metro che ho già giocato.
anche guardian of galaxy ha un buon effetto rt
slide1965
16-12-2021, 15:37
Resident Evil Village ha un buon effetto ma non quanto i titoli qui sopra.
anche guardian of galaxy ha un buon effetto rt
Quello delle biglie :O
:D
sto cambiando la gpu e dopo anni che sono su nvidia sto prendendo in considerazione anche amd, non ho ancora deciso ma diciamo che a sto giro sono aperto a tutto visti i prezzi attuali e da possessore di scheda rtx mi chiedo quanto il ray tracing+dlss possa essere un fattore di scelta considerando che, a quanto vedo, i giochi con rt attivo dove davvero si puo dire "wow" si contano su una mano
Da nvidia inspector vai al profilo di cyberpunk e setti il texture filtering - lod bias (dx) a -0.500 oltre a settare "texture filtering - negative lod bias" su "allow". Questo aumentera' la nitidezza delle textures distanti andando ad influire sulle mipmaps che a causa di una mancanza dei programmatori vengono visualizzate ad una qualita' inferiore risultando sfocate. Questo accade solo quando utilizzi il DLSS.
Poi apri il pannello nvidia e metti lo sharpening a 0.5 ed ignore film grain a 0.24. Se hai gli ultimi driver nvidia e vuoi far ritornare il vecchio sharpening (per me molto meglio del nuovo) rinunciando pero' a NIS devi andare sotto "adjust desktop size and position" e selezionare "gpu scaling" oltre a "integer scaling". Applica e ti ritrovi con le vecchie opzioni.
Ovviamente se vuoi prestazioni migliori ti consiglio di disabilitare ombre e illuminazione RT, ma almeno tieni i riflessi che con le cubemaps+ssr fa abbastanza pieta'.
Interessante la procedura che ti riattiva il vecchio sharpening (senza NIS) che funziona decisamente meglio. Lo utilizzo spesso in qualsiasi gioco in maniera leggera per avere un'immagine più nitida, senza esagerare.
:D
sto cambiando la gpu e dopo anni che sono su nvidia sto prendendo in considerazione anche amd, non ho ancora deciso ma diciamo che a sto giro sono aperto a tutto visti i prezzi attuali e da possessore di scheda rtx mi chiedo quanto il ray tracing+dlss possa essere un fattore di scelta considerando che, a quanto vedo, i giochi con rt attivo dove davvero si puo dire "wow" si contano su una manoPer me, più che l'RT, il vero fattore di scelta è il DLSS.
L'RT va bene. Gli effetti sono carini. I giochi citati sopra hanno tutti buone implementazioni del raytracing (chi più chi meno), ma il DLSS è quello che ti cambia la vita oggi e può dare poi respiro alla scheda anche in ottica futura. Lato AMD, al momento, non c'è nulla di paragonabile.
Mia opinione.
devil_mcry
16-12-2021, 19:04
In effetti il DLSS è il punto di svolta, la dove c'è (e sta prendendo tanto piede vero) cambia tantissimo
Però una 6900xt l'avrei davvero voluta
slide1965
16-12-2021, 21:54
Per me, più che l'RT, il vero fattore di scelta è il DLSS.
L'RT va bene. Gli effetti sono carini. I giochi citati sopra hanno tutti buone implementazioni del raytracing (chi più chi meno), ma il DLSS è quello che ti cambia la vita oggi e può dare poi respiro alla scheda anche in ottica futura. Lato AMD, al momento, non c'è nulla di paragonabile.
Mia opinione.
Ho una 2080ti , meno potente rispetto alle 3000 ma francamente sono pochi i giochi in cui ho dovuto abilitarlo, è vero che non gioco in 4k ma vado comunque a 3840x1600.
Da nvidia inspector vai al profilo di cyberpunk e setti il texture filtering - lod bias (dx) a -0.500 oltre a settare "texture filtering - negative lod bias" su "allow". Questo aumentera' la nitidezza delle textures distanti andando ad influire sulle mipmaps che a causa di una mancanza dei programmatori vengono visualizzate ad una qualita' inferiore risultando sfocate. Questo accade solo quando utilizzi il DLSS.
Poi apri il pannello nvidia e metti lo sharpening a 0.5 ed ignore film grain a 0.24. Se hai gli ultimi driver nvidia e vuoi far ritornare il vecchio sharpening (per me molto meglio del nuovo) rinunciando pero' a NIS devi andare sotto "adjust desktop size and position" e selezionare "gpu scaling" oltre a "integer scaling". Applica e ti ritrovi con le vecchie opzioni.
Ovviamente se vuoi prestazioni migliori ti consiglio di disabilitare ombre e illuminazione RT, ma almeno tieni i riflessi che con le cubemaps+ssr fa abbastanza pieta'.
Ah ok. Cmq il nuovo sharpening con NIS si ciuccia circa il 10% risorse anche se messo su 0% dalle impostazioni globali da quello che ho letto... Per me meglio starne alla larga.
ti ringrazio ma a sto punto non è uguale togliere il DLSS e basta? :D
Per me, più che l'RT, il vero fattore di scelta è il DLSS.
L'RT va bene. Gli effetti sono carini. I giochi citati sopra hanno tutti buone implementazioni del raytracing (chi più chi meno), ma il DLSS è quello che ti cambia la vita oggi e può dare poi respiro alla scheda anche in ottica futura. Lato AMD, al momento, non c'è nulla di paragonabile.
Mia opinione.
si beh l'importante è che non diventi lo standard per fare andare i giochi.
comunque allora tanto vale staccare l'RT no?
In effetti il DLSS è il punto di svolta, la dove c'è (e sta prendendo tanto piede vero) cambia tantissimo
Però una 6900xt l'avrei davvero voluta
io ho sempre puntato alla 3080Ti come primaria ma poi per un po' ci ho rinunciato perché era ormai un miraggio e puntavo forte la 6900XT.. poi sono riuscito ad accaparrarmi la 3080ti ma la 6900 sarebbe stata comunque top con qualche 100€ in più nel portafoglio
Adone_1985
17-12-2021, 07:00
Imho la scelta della scheda varia in base alle esigenze e prestazioni (ormai il prezzo non conta più:D ) anche guardando ad un ottica di qualche anno, visto che meno di mille euro non si spendono….ed Nvidia in questa generazione, che è ancora più vicina al ray tracing dlss……è ampiamente in vantaggio, quindi perché scegliere AMD?…
In qualche anno i titoli RT faranno apparire una 3080ti una 1060 a essere gentili.....dlss o no.....in tutto il resto ovvero il 90% dei giochi che non ha ne RT ne DLSS le amd vanno mooolto forte ecco perchè le comprano :fagiano:
Adone_1985
17-12-2021, 08:06
In qualche anno i titoli RT faranno apparire una 3080ti una 1060 a essere gentili.....dlss o no.....in tutto il resto ovvero il 90% dei giochi che non ha ne RT ne DLSS le amd vanno mooolto forte ecco perchè le comprano :fagiano:
Ti stai scordando le console mio caro ;)
EDIT: è comunque anche senza Rtx a livello di prestazioni parlando di top di gamma stiamo lì..quindi preferisco prendere una scheda che vada bene su più fronti:)
Ma certo, ognuno valuti come meglio crede ma non pensate che il DLSS (con un livello di qualità accettabile) vi permetta di far girare un titolo come una futura 4080 senza DLSS, ecco....non ho capito il discorso console cosa c'entrino ma ok siamo OT :stordita:
ps. non sarei così naif nel dire che ormai i prezzi non contano più nulla, per il 70% delle persone conta ancora (e infatti si accontentano della fascia medio bassa nvidia oppure si tengono le vecchie gpu, tutto il resto finisce nel mining)
sertopica
17-12-2021, 10:03
ti ringrazio ma a sto punto non è uguale togliere il DLSS e basta? :D
No, perche' con RT attivo non avresti mai prestazioni soddisfacenti in ogni scenario.
Con la 3080 e tutti gli effetti attivi senza dlss e' una moviola, con i riflessi soltanto gira decentemente ma ha comunque cali. A 1440p. A 4k lascia perdere, a 1080p FORSE e' fattibile ma poi c'e' il rischio che diventi CPU bottlenecked.:D
Adone_1985
17-12-2021, 10:10
Ma certo, ognuno valuti come meglio crede ma non pensate che il DLSS (con un livello di qualità accettabile) vi permetta di far girare un titolo come una futura 4080 senza DLSS, ecco....non ho capito il discorso console cosa c'entrino ma ok siamo OT :stordita:
ps. non sarei così naif nel dire che ormai i prezzi non contano più nulla, per il 70% delle persone conta ancora (e infatti si accontentano della fascia medio bassa nvidia oppure si tengono le vecchie gpu, tutto il resto finisce nel mining)
Nessuno ha detto che il dlss fa miracoli anche perché quando posso non lo attivo neanche…
il fatto sta che a parità di prezzo prestazioni e nuove tecnologie (Rtx dlss) Nvidia è avanti…
le console purtroppo c’entrano sempre (ho una ps5) è grazie a loro se ancora siamo così indietro nei video game…basti pensare che gioco a 120hz da 10 anni circa e ora sembra che hanno scoperto l’acqua calda:D…
…hardware mediocre che viene adattato per far girare i giochi su diverse piattaforme dove ricavano ovviamente più soldi…e tutto ciò ti fa durare la gpu più a lungo
…i prezzi non contano piu non per noi io l’ho pagata 1250€ e devo ritenermi fortunato…non contano piu perché una semplice 3070 si trova a 1000€
slide1965
17-12-2021, 10:30
Imho la scelta della scheda varia in base alle esigenze e prestazioni (ormai il prezzo non conta più:D ) anche guardando ad un ottica di qualche anno, visto che meno di mille euro non si spendono….ed Nvidia in questa generazione, che è ancora più vicina al ray tracing dlss……è ampiamente in vantaggio, quindi perché scegliere AMD?…
Io non ho ancora scelto e francamente sono molto indeciso .
Sono su Nvidia da una vita ma a sto giro sto vacillando, se paragono una 3080ti ad una 6900xt a livello di performance siamo lì , ma a livello di costo con la 6900 si risparmia qualcosa , perdendo il dlss e a ruota il ray tracing , il che potrebbe giustificare la spesa in più che affronterei scegliendo la verde , ma francamente non vedo così tanti titoli che mi allettano col ray tracing in questo momento , cp2077 e metro li ho gia giocati, control l’ho mollato perché non mi ha entusiasmato …. ci sono dei titoloni in arrivo quest’anno che possano solleticare l’acquisto?
E' dalla PS3 che sento questi discorsi, le console devono fare le console punto fossero con gpu amd nvidia o intel..... hw statico per n anni a costo quasi in perdita e consumi bassi. E' come se noi avessimo un refresh di piattaforma ogni quattro anni :stordita: però o vuoi l'ottimizzazione (console) oppure approccio brute force (pc)
A parità di costo amd/nvidia c'è storicamente una propensione per la casa verde, i costi delle amd così alti sono dovuti all'ingolfamento tsmc quindi poche schede a differenza di nvidia ma quest'ultime il mining se le ciuccia tutte o quasi :fagiano: ricapitolando tanti fanno il tuo stesso ragionamento ma alcuni ad una 3070 da 1000€ preferiscono una 6800XT a 1200 perchè la asfalta in tutto ciò che non è RT intenso in quanto per salire di fascia sulla stessa nvidia ci devi lasciare i 1500 (3080 o 3080Ti) :stordita: e dopo un po' la corda prezzo si spezza (o prendono la console :asd: )
@slide: l'RT gira anche su big navi eh se proprio uno vuole provarlo, e se ha FSR qualcosa aiuta.... ma si ecco, non è sicuramente il suo punto di forza...con la 6900 devi sparare 300 fps con qualità bassa e latenza nulla nei competitivi che mi pare siano i tuoi preferiti....
Adone_1985
17-12-2021, 10:50
Io non ho ancora scelto e francamente sono molto indeciso .
Sono su Nvidia da una vita ma a sto giro sto vacillando, se paragono una 3080ti ad una 6900xt a livello di performance siamo lì , ma a livello di costo con la 6900 si risparmia qualcosa , perdendo il dlss e a ruota il ray tracing , il che potrebbe giustificare la spesa in più che affronterei scegliendo la verde , ma francamente non vedo così tanti titoli che mi allettano col ray tracing in questo momento , cp2077 e metro li ho gia giocati, control l’ho mollato perché non mi ha entusiasmato …. ci sono dei titoloni in arrivo quest’anno che possano solleticare l’acquisto?
Allora devi capire se 150-200€ ti pesano sul budget…le osservazioni le hai fatte tutte;)
Cioè non posso spendere 1500€ e gli manca qualcosa anche se futile a vista di molti
Io prenderei la 3080ti
slide1965
17-12-2021, 11:00
@slide: l'RT gira anche su big navi eh se proprio uno vuole provarlo, e se ha FSR qualcosa aiuta.... ma si ecco, non è sicuramente il suo punto di forza...con la 6900 devi sparare 300 fps con qualità bassa e latenza nulla nei competitivi che mi pare siano i tuoi preferiti....
Si diciamo che per la gran parte sono in full hd sui multi, tra cod, Apex, valorant e compagnia bella , poi a volte per staccare ci piazzo in mezzo qualche single player e li chiaramente passo sull’altro monitor e mi piace avere tutto a palla, ray tracing ecc ecc ma deve essere un titolone se no mi annoio facile
Allora devi capire se 150-200€ ti pesano sul budget…le osservazioni le hai fatte tutte;)
Cioè non posso spendere 1500€ e gli manca qualcosa anche se futile a vista di molti
Io prenderei la 3080ti
Sto meditando :stordita:
Adone_1985
17-12-2021, 11:05
E' dalla PS3 che sento questi discorsi, le console devono fare le console punto fossero con gpu amd nvidia o intel..... hw statico per n anni a costo quasi in perdita e consumi bassi. E' come se noi avessimo un refresh di piattaforma ogni quattro anni :stordita: però o vuoi l'ottimizzazione (console) oppure approccio brute force (pc)
A parità di costo amd/nvidia c'è storicamente una propensione per la casa verde, i costi delle amd così alti sono dovuti all'ingolfamento tsmc quindi poche schede a differenza di nvidia ma quest'ultime il mining se le ciuccia tutte o quasi :fagiano: ricapitolando tanti fanno il tuo stesso ragionamento ma alcuni ad una 3070 da 1000€ preferiscono una 6800XT a 1200 perchè la asfalta in tutto ciò che non è RT intenso in quanto per salire di fascia sulla stessa nvidia ci devi lasciare i 1500 (3080 o 3080Ti) :stordita: e dopo un po' la corda prezzo si spezza (o prendono la console :asd: )
Ma comunque a 1200€ la 6800xt forse un anno fa…i prezzi si sono livellati così la 3070ti sta come una 6700 poco più poco meno…e a seguire la 6800xt intorno ai 1300 come una 3080 la ti costa poco più di una 6900xt la 3090 è semplicemente ridicola
Ps: neanche quelle ci sono:)
Thunder-74
17-12-2021, 12:07
Avete visto le richieste per attivare il RayTracing sul futuro Dying Light 2 ?
una 3080 per i 60fps in FHD
https://overclock3d.net/gfx/articles/2021/12/16200419241s.jpg
O siamo di fronte ad una rivoluzione tecnica tipo demo Matrix con UE5 oppure questi requisiti sono fuori di testa, 60fps 4K con una 3080 te li devono garantire, magari con ausilio di DLSS o quant’altro.
Adone_1985
17-12-2021, 13:05
Lo “accetto” solo se il gioco è come la presentazione di cyberpunk altrimenti queste software house imho potrebbero anche chiudere i battenti…non c’entrano nulla le schede…in 4k cosa ci vuole uno SLI di 3090??
Dai per favore, sciocco chi lo compra
EDIT e poi raccomandano un 8600k daiiiii….e il collo di bottiglia dove se lo mettono?? :D:D
Cutter90
17-12-2021, 13:47
Avete visto le richieste per attivare il RayTracing sul futuro Dying Light 2 ?
una 3080 per i 60fps in FHD
https://overclock3d.net/gfx/articles/2021/12/16200419241s.jpg
Se il gioco è in "full rt" come cp 2077 o Metro ci sta senza dlss. E' un open wolrd
No, perche' con RT attivo non avresti mai prestazioni soddisfacenti in ogni scenario.
Con la 3080 e tutti gli effetti attivi senza dlss e' una moviola, con i riflessi soltanto gira decentemente ma ha comunque cali. A 1440p. A 4k lascia perdere, a 1080p FORSE e' fattibile ma poi c'e' il rischio che diventi CPU bottlenecked.:D
mah io tutto attivo no dlss faccio 50fps in 1440p, giocabilissimo.. in 4k l'ho provato ma il dlss li è obbligatorio. in full hd non gioco da 7 anni :D
Avete visto le richieste per attivare il RayTracing sul futuro Dying Light 2 ?
una 3080 per i 60fps in FHD
https://overclock3d.net/gfx/articles/2021/12/16200419241s.jpg
roba da fuori di testa... non si può stare in pace neanche con le top della generazione corrente
freddye78
17-12-2021, 15:37
Avete visto le richieste per attivare il RayTracing sul futuro Dying Light 2 ?
una 3080 per i 60fps in FHD
https://overclock3d.net/gfx/articles/2021/12/16200419241s.jpgVedendo gli ultimi filmati gameplay hanno messo questi requisiti perché è ottimizzato con i piedi, la grafica che si vede non li giustifica minimamente, anzi il tanto criticato Cyberpunk è superiore e non di poco
TigerTank
17-12-2021, 15:45
Vedendo gli ultimi filmati gameplay hanno messo questi requisiti perché è ottimizzato con i piedi, la grafica che si vede non li giustifica minimamente, anzi il tanto criticato Cyberpunk è superiore e non di poco
Purtroppo quoto, imho i rinvii dell'ultimo minuto mi fanno sempre pensare a situazioni in alto mare ancora da affinare(situazione sempre più frequente). Tanto ormai ci sono i players che addirittura preordinano a fare da beta testers a cui seguono le giga-patches :D
razor820
17-12-2021, 15:49
Vedendo gli ultimi filmati gameplay hanno messo questi requisiti perché è ottimizzato con i piedi, la grafica che si vede non li giustifica minimamente, anzi il tanto criticato Cyberpunk è superiore e non di poco
Non credo che da qualche video sul tubo, downscalato per giunta, si possa capire realmente la qualita grafica del gioco.
Mi ricordo che il primo che è made 2015 ancora oggi è superiore a molte delle uscite 2021..
cbug2077 ad ora è più RTX che altro. Senza quello lo reputo graficamente sotto ad alcuni giochi come red2.
Certo vedere i requisiti per il FullHD a 60fps è veramente triste..
Questo fa capire come ancora siamo lungi da avere un 4k ottimizzato nemmeno con le ultime schede e mi ritengo fortunato di esser rimasto con il mio vecchio monitor 1440p
Non scherziamo, Dying Light era un capolavoro a molti livelli :O sarà una bella battaglia fra questo e stalker 2 :O
TigerTank
17-12-2021, 16:09
Non scherziamo, Dying Light era un capolavoro a molti livelli :O sarà una bella battaglia fra questo e stalker 2 :O
Non credo, se mantengono lo stile degli altri Stalker(cosa che spero), saranno 2 tipi di giochi un bel pò diversi :)
In poche parole, da giocare entrambi :D
Stalker 2 dovrà per forza uscire bene perchè attualmente Stalker Anomaly sta avendo molto seguito, con una vasta community di modders ed oltretutto è gratis.
La grafica all'ultimo grido non è tutto.
Adone_1985
17-12-2021, 18:25
Senza contare che andrà giocato un anno dopo l’uscita…a causa delle varie patch e update dato che il gioco sarà una beta:D
Dai non scherziamo ragazzi…neanche va preso in considerazione
Adone_1985
17-12-2021, 18:32
Certo vedere i requisiti per il FullHD a 60fps è veramente triste..
Questo fa capire come ancora siamo lungi da avere un 4k ottimizzato nemmeno con le ultime schede e mi ritengo fortunato di esser rimasto con il mio vecchio monitor 1440p
Questo fa capire che se programmo un gioco io che faccio il gastronomo lo ottimizzo meglio :asd:
TigerTank
17-12-2021, 18:33
Per i nostalgici come me che lo giocarono a fine anni 90 su pc/PS1 :D
Final Fantasy 7 remake in 4K con una 3080.
https://www.youtube.com/watch?v=uXAfJsRG4B8
Non credo che da qualche video sul tubo, downscalato per giunta, si possa capire realmente la qualita grafica del gioco.
Mi ricordo che il primo che è made 2015 ancora oggi è superiore a molte delle uscite 2021..
cbug2077 ad ora è più RTX che altro. Senza quello lo reputo graficamente sotto ad alcuni giochi come red2.
Certo vedere i requisiti per il FullHD a 60fps è veramente triste..
Questo fa capire come ancora siamo lungi da avere un 4k ottimizzato nemmeno con le ultime schede e mi ritengo fortunato di esser rimasto con il mio vecchio monitor 1440p
va beh dici poco, probabilmente il top del top ancora oggi.
cpunk comunque come grafica non fa impazzire neanche me, RT o no che sia, il peso non è giustificato come diceva qualcuno.
non è brutto assolutamente però..
sertopica
18-12-2021, 09:15
mah io tutto attivo no dlss faccio 50fps in 1440p, giocabilissimo.. in 4k l'ho provato ma il dlss li è obbligatorio. in full hd non gioco da 7 anni :D
50 fps tutto attivo (hai usato un preset, hai personalizzato le impostazioni o ancora hai messo tutto tutto al max?) a 1440p in ogni frangente? Forse sei all'inizio e gira meglio (anche no :asd: ) ma mi sembra improbabile che tu li abbia sempre. Il gioco e' un mattone con RT, e pure senza. :stordita:
Ecco un paio di screens con statistiche, tutto al max compresa illuminazione rt, a 1440p:
https://abload.de/thumb/cyberpunk2077_2021_12nckni.png (https://abload.de/image.php?img=cyberpunk2077_2021_12nckni.png) https://abload.de/thumb/cyberpunk2077_2021_12njjfq.png (https://abload.de/image.php?img=cyberpunk2077_2021_12njjfq.png) https://abload.de/thumb/cyberpunk2077_2021_12j5jun.png (https://abload.de/image.php?img=cyberpunk2077_2021_12j5jun.png)
https://abload.de/thumb/cyberpunk2077_2021_12erk8b.png (https://abload.de/image.php?img=cyberpunk2077_2021_12erk8b.png)
Adone_1985
18-12-2021, 12:00
Io con queste impostazioni stavo in 2k quasi sempre a 50-60 con alcuni cali verso i 45…le consiglio perché dopo un attenta analisi ho riscontrato che alcuni impostazioni rallentano sono il frame rate ma a livello visivo non cambia nulla o quasi..
Anisotropy: 16x
Local shadow mesh quality: high
Local shadow quality: High
Cascaded shadow range: high
Cascaded shadow res: med
Distant shadow res: high
Volumetric fog resolution: Low
Volumetric cloud quality: med
Max dinamic Decals: ultra
Screen space reflection quality: med
Subsurface scattering quality: high
Ambient occlusion: med
Color precision: med
Mirror quality: high
Level of detail: high
Rtx su high e dlss su bilanciato
freddye78
18-12-2021, 12:15
Non credo che da qualche video sul tubo, downscalato per giunta, si possa capire realmente la qualita grafica del gioco.
Mi ricordo che il primo che è made 2015 ancora oggi è superiore a molte delle uscite 2021..
I modelli poligonali di ambiente e personaggi quelli sono, non è che cambiano dal giorno alla notte in base alla definizione del filmato su YouTube.
A me sembra graficamente uguale al predecessore, di più ha gli effetti raytracing ma nemmeno tanto pompati, tanto che ho avuto l'impressione che fosse più un DLC che un seguito.
Non che sia da buttare intendiamoci, ma di certo non sono minimamente giustificati i requisiti hardware che hanno comunicato e non può essere solo per il raytracing,a me sembra che si stiano parando le ciapet perché hanno problemi ad ottimizzarlo
razor820
18-12-2021, 12:47
I modelli poligonali di ambiente e personaggi quelli sono, non è che cambiano dal giorno alla notte in base alla definizione del filmato su YouTube.
A me sembra graficamente uguale al predecessore, di più ha gli effetti raytracing ma nemmeno tanto pompati, tanto che ho avuto l'impressione che fosse più un DLC che un seguito.
Non che sia da buttare intendiamoci, ma di certo non sono minimamente giustificati i requisiti hardware che hanno comunicato e non può essere solo per il raytracing,a me sembra che si stiano parando le ciapet perché hanno problemi ad ottimizzarlo
Fin quando usciranno giochi multipiattaforma per ps4 la base sara sempre quella.. Per pc piu risoluzione piu effetti.. Ma i modelli restano sempre quelli.
Per vedere qualcosa di graficamento migliore o dobbiamo aspettare un AAA solo per PC o giocare a qualche esclusiva PS5 presente/futura
freddye78
18-12-2021, 12:54
Fin quando usciranno giochi multipiattaforma per ps4 la base sara sempre quella.. Per pc piu risoluzione piu effetti.. Ma i modelli restano sempre quelli.
Per vedere qualcosa di graficamento migliore o dobbiamo aspettare un AAA solo per PC o giocare a qualche esclusiva PS5 presente/futuraAppunto, per questo questo sostengo che hanno indicato questi requisiti per problemi di ottimizzazione.
Adone_1985
18-12-2021, 12:55
Fin quando usciranno giochi multipiattaforma per ps4 la base sara sempre quella.. Per pc piu risoluzione piu effetti.. Ma i modelli restano sempre quelli.
Per vedere qualcosa di graficamento migliore o dobbiamo aspettare un AAA solo per PC o giocare a qualche esclusiva PS5 presente/futura
Quoto
C’è ancora chi dice di no…
…e poi basta co sti zombie non sanno più che inventasse :D
TigerTank
18-12-2021, 14:03
Fin quando usciranno giochi multipiattaforma per ps4 la base sara sempre quella.. Per pc piu risoluzione piu effetti.. Ma i modelli restano sempre quelli.
Per vedere qualcosa di graficamento migliore o dobbiamo aspettare un AAA solo per PC o giocare a qualche esclusiva PS5 presente/futura
In poche parole i giochi con l'UE5....ma fatti anche bene :D
50 fps tutto attivo (hai usato un preset, hai personalizzato le impostazioni o ancora hai messo tutto tutto al max?) a 1440p in ogni frangente? Forse sei all'inizio e gira meglio (anche no :asd: ) ma mi sembra improbabile che tu li abbia sempre. Il gioco e' un mattone con RT, e pure senza. :stordita:
Ecco un paio di screens con statistiche, tutto al max compresa illuminazione rt, a 1440p:
https://abload.de/thumb/cyberpunk2077_2021_12nckni.png (https://abload.de/image.php?img=cyberpunk2077_2021_12nckni.png) https://abload.de/thumb/cyberpunk2077_2021_12njjfq.png (https://abload.de/image.php?img=cyberpunk2077_2021_12njjfq.png) https://abload.de/thumb/cyberpunk2077_2021_12j5jun.png (https://abload.de/image.php?img=cyberpunk2077_2021_12j5jun.png)
https://abload.de/thumb/cyberpunk2077_2021_12erk8b.png (https://abload.de/image.php?img=cyberpunk2077_2021_12erk8b.png)
ma con che scheda?
dopo screenno qualcosa anch'io
TigerTank
18-12-2021, 14:13
50 fps tutto attivo (hai usato un preset, hai personalizzato le impostazioni o ancora hai messo tutto tutto al max?) a 1440p in ogni frangente? Forse sei all'inizio e gira meglio (anche no :asd: ) ma mi sembra improbabile che tu li abbia sempre. Il gioco e' un mattone con RT, e pure senza. :stordita:
Ecco un paio di screens con statistiche, tutto al max compresa illuminazione rt, a 1440p:
https://abload.de/thumb/cyberpunk2077_2021_12nckni.png (https://abload.de/image.php?img=cyberpunk2077_2021_12nckni.png) https://abload.de/thumb/cyberpunk2077_2021_12njjfq.png (https://abload.de/image.php?img=cyberpunk2077_2021_12njjfq.png) https://abload.de/thumb/cyberpunk2077_2021_12j5jun.png (https://abload.de/image.php?img=cyberpunk2077_2021_12j5jun.png)
https://abload.de/thumb/cyberpunk2077_2021_12erk8b.png (https://abload.de/image.php?img=cyberpunk2077_2021_12erk8b.png)
Purtroppo è questo il problema...il tutto maxato che spesso spreme più risorse dei benefici visivi effettivi rispetto a dei settings scalati. Da aggiungere al fatto che il ray tracing maxato si mangia praticamente più del 40% di prestazioni di una 3080 in 1440p...
ero stato un po' vago nel post precedente in effetti, questi i risultati su 3080Ti @ 1440p
https://abload.de/thumb/2021-12-181nkkeo.png (https://abload.de/image.php?img=2021-12-181nkkeo.png) https://abload.de/thumb/2021-12-182erjv9.png (https://abload.de/image.php?img=2021-12-182erjv9.png) https://abload.de/thumb/2021-12-183xqjch.png (https://abload.de/image.php?img=2021-12-183xqjch.png) https://abload.de/thumb/2021-12-184lyj1t.png (https://abload.de/image.php?img=2021-12-184lyj1t.png) https://abload.de/thumb/2021-12-185khkkf.png (https://abload.de/image.php?img=2021-12-185khkkf.png) https://abload.de/thumb/2021-12-186nej09.png (https://abload.de/image.php?img=2021-12-186nej09.png) https://abload.de/thumb/2021-12-187enkwr.png (https://abload.de/image.php?img=2021-12-187enkwr.png) https://abload.de/thumb/2021-12-18iajgv.png (https://abload.de/image.php?img=2021-12-18iajgv.png)
poi ultimamente stavo giocando col DLSS su quality e RT folle.
scorpion73
20-12-2021, 08:44
Dai ragazzi, dopo avere visto la demo di Matrix girare su una PS5, questi requisiti mi sanno di un gioco scritto mentre sei occupato sul trono....
E' vero che c'è il discorso ray tracing, ma dirmi che vuoi una 3080 per girare 60fps full hd significa che il gioco l'hai ottimizzato mentre mangiavi un piatto di pasta...
Dai ragazzi, dopo avere visto la demo di Matrix girare su una PS5, questi requisiti mi sanno di un gioco scritto mentre sei occupato sul trono....
E' vero che c'è il discorso ray tracing, ma dirmi che vuoi una 3080 per girare 60fps full hd significa che il gioco l'hai ottimizzato mentre mangiavi un piatto di pasta...
Io penso che parlare di ottimizzazione fatta a "re del defecazio" sia quantomeno prematuro. Ciò non di meno a me non spiace che finalmente i giochi su pc richiedano potenze di calcolo degne delle macchine che abbiamo in firma, tuttavia mi auguro e auspico che tali richieste siano commisurate a innovazioni grafiche da urlo e progresso nelle features del gioco.
Inoltre era ora che si cominciasse a specificare le vere richieste hardware per giocare e non quelle barzellette che vengono sempre scritte con cui poi devi giocare a qualità sub console.
Ovviamante più si va avanti e meno saranno evidenti i miglioramenti "diminishing returns" ma speriamo in bene.
Senza contare che andrà giocato un anno dopo l’uscita…a causa delle varie patch e update dato che il gioco sarà una beta:D
Dai non scherziamo ragazzi…neanche va preso in considerazione
e quindi scusa cosa rimarrebbe? :fagiano:
Cutter90
20-12-2021, 09:04
Dai ragazzi, dopo avere visto la demo di Matrix girare su una PS5, questi requisiti mi sanno di un gioco scritto mentre sei occupato sul trono....
E' vero che c'è il discorso ray tracing, ma dirmi che vuoi una 3080 per girare 60fps full hd significa che il gioco l'hai ottimizzato mentre mangiavi un piatto di pasta...
Matrix è fumo negli occhi. E' un video in cgi in sostanza.
sertopica
20-12-2021, 09:09
Purtroppo è questo il problema...il tutto maxato che spesso spreme più risorse dei benefici visivi effettivi rispetto a dei settings scalati. Da aggiungere al fatto che il ray tracing maxato si mangia praticamente più del 40% di prestazioni di una 3080 in 1440p...
Si, anche se devo dire che la GI su folle fa la differenza in varie situazioni. E poi col DLSS sto, a parte in un'area, sempre intorno ai 60-70 fps. Non esiste open world a mio parere con una simile mole di roba a schermo e assets di alta qualita'.
ero stato un po' vago nel post precedente in effetti, questi i risultati su 3080Ti @ 1440p
cut
poi ultimamente stavo giocando col DLSS su quality e RT folle.
Ah ecco, ora si ragiona! :D
Adone_1985
20-12-2021, 09:12
Dai ragazzi, dopo avere visto la demo di Matrix girare su una PS5, questi requisiti mi sanno di un gioco scritto mentre sei occupato sul trono....
E' vero che c'è il discorso ray tracing, ma dirmi che vuoi una 3080 per girare 60fps full hd significa che il gioco l'hai ottimizzato mentre mangiavi un piatto di pasta...
Quoto in pieno e significa che lo giocherò quando costerà 6€ E sarà finalmente finito con le sue patch e dlc se vogliamo :D
Rispondo anche @Frozen
Adone_1985
20-12-2021, 09:15
Ma dai, cadi in queste affermazioni fallaci cosi' facilmente?
Forse non è proprio questo il paragone più giusto…ma che è stato sviluppato sulla tazza del cesso:D è giusto…scusami Ser
devil_mcry
20-12-2021, 09:21
Matrix è fumo negli occhi. E' un video in cgi in sostanza.
ma non è giocabile scusa? ho visto delle parti giocate
sertopica
20-12-2021, 09:22
edit :asd: :asd:
Adone_1985
20-12-2021, 10:05
Non su PC. Su console old gen senz'altro e' stato un disastro. Piu' che sviluppato sul cesso -che e' pure offensivo nei confronti di tutti quelli che si sono fatti il mazzo a lavorarci sopra a ritmi folli- direi piuttosto che a causa di decisioni errate e' stato pubblicato incompleto.
Ma stiamo parlando dello stesso gioco??
sertopica
20-12-2021, 10:19
Ma stiamo parlando dello stesso gioco??
:sbonk:
Io parlavo di Cyberpunk te? :asd: :asd:
edit: ops! Te dicevi dying light. mi sono confuso con i posts. Scusate il casino.
Adone_1985
20-12-2021, 10:42
:sbonk:
Io parlavo di Cyberpunk te? :asd: :asd:
edit: ops! Te dicevi dying light. mi sono confuso con i posts. Scusate il casino.
:D :D
Cutter90
20-12-2021, 11:16
ma non è giocabile scusa? ho visto delle parti giocate
Definirle scriptate è dir poco. Voglio proprio vedere quando uscirà....
X-ray guru
20-12-2021, 14:03
Mah...:stordita:
Thunder-74
20-12-2021, 15:24
Vabbè ragazzi, ho fatto la mattata... :D
https://cdn.videocardz.com/1/2021/12/RTX-3090-Ti-by-ASUS-TUF-768x762.jpg
mikael84
20-12-2021, 16:15
Vabbè ragazzi, ho fatto la mattata... :D
Falla veramente e mi dai la tua.:sofico:
Cmq, questa utilizzerà la doppia densità, quindi niente clamshell (ram avanti e dietro).
FrancoBit
20-12-2021, 16:18
Vabbè ragazzi, ho fatto la mattata... :D
https://cdn.videocardz.com/1/2021/12/RTX-3090-Ti-by-ASUS-TUF-768x762.jpg
Dalla scatola sembra una scheda a 21:9, cos'è stai ventunonovizzando tutto? :D
TigerTank
20-12-2021, 18:01
Dai ragazzi, dopo avere visto la demo di Matrix girare su una PS5, questi requisiti mi sanno di un gioco scritto mentre sei occupato sul trono....
E' vero che c'è il discorso ray tracing, ma dirmi che vuoi una 3080 per girare 60fps full hd significa che il gioco l'hai ottimizzato mentre mangiavi un piatto di pasta...
Se anche Stalker 2 me lo fanno uscire come una ciofeca buggata, mollo tutto e mi dedico all'uncinetto :asd:
Vabbè ragazzi, ho fatto la mattata... :D
Dalla scatola sembra una scheda a 21:9, cos'è stai ventunonovizzando tutto? :D
Mi avete fatto sbellicare :asd: :sofico:
Thunder-74
20-12-2021, 18:23
Falla veramente e mi dai la tua.:sofico:
Cmq, questa utilizzerà la doppia densità, quindi niente clamshell (ram avanti e dietro).
Già sono sotto botta per il nuovo monitor che arriva in settimana (Alienware AW3821AD) :D
Mi piacerebbe solo per avere un full chip , ma ho finito i reni :fagiano:
Dalla scatola sembra una scheda a 21:9, cos'è stai ventunonovizzando tutto? :D
Heeee 21:9, il rapporto magico :D
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
20-12-2021, 18:55
The new version is: 497.29 WHQL
https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/
New in this version:
Game Ready
GTFO
Horizon Zero Dawn DLSS
GFE Optimal Settings
Grand Theft Auto: The Trilogy - The Definitive Edition
Grand Theft Auto III
Grand Theft Auto: Vice City
Grand Theft Auto: San Andreas
Chorus
Wartales
World of Warcraft: Shadowlands
EVE Online
The Elder Scrolls Online
Horizon Zero Dawn: Complete Edition
Thunder Tier One
Fixed
[Microsoft Flight Simulator]: The game may crash to the desktop during gameplay. [3454519]
[Microsoft Flight Simulator]: Purple/blue artifacts appear on ground textures in the game. [3454530]
[Supreme Command:Forged Alliance/Supreme Commander 2]: Performance drop occurs when there is mouse movement. [3405920]
Desktop may stutter after extended period when mouse cursor is moved. [3443235]
[NVIDIA Control Panel]: Spelling error in the German language NVIDIA Control Panel -> Manage 3D Settings -> Shader Cache Size default option. [3442310]
Windows 10/11 Issues
[Deathloop][HDR]: TDR/corruption occurs in the game with Windows HDR enabled. [200767905]
If this issue occurs, toggle the Windows HDR setting.
Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
In multi-monitor configurations, the screen may display random black screen flicker. [3405228]
[HDR][G-Sync]: Mouse pointer gets stuck after turning on HDR from the Windows Control Panel or after toggling G-Sync from the NVIDIA control panel. [200762998]
To work around, click the mouse (right or left button). The mouse cursor will be sluggish for a few seconds before returning to normal operation.
[NVIDIA Advanced Optimus][NVIDIA Control Panel]: After setting the display multiplexer type to "dGPU", the setting is not preserved across a reboot or resume from S4. [200779758]
[NVIDIA Image Scaling][Desktop]: The screen moves to the upper left corner on cold boot when Image Scaling is applied to the desktop. [3424721]
Do not apply NVIDIA Image Scaling to the desktop. It is intended only for video upscaling or for games which do not run with a scaling resolution unless the same Image Scaling resolution is applied on the desktop.
[NVIDIA Image Scaling][DirectX 11 video apps]: With Image Scaling enabled, video playback is corrupted or results in a system hang after performing an HDR transition. [3431284]
If HDR is required to be toggled from the Microsoft Control Panel, be sure to switch to a different Image Scaling resolution.
Inviato dal mio iPhone X utilizzando Tapatalk
ma è normale che liquidando la 3080 col kit alphacool, le temperature sono calate solamente di 5-10 gradi rispetto quelle con dissipatore ad aria?
ma è normale che liquidando la 3080 col kit alphacool, le temperature sono calate solamente di 5-10 gradi rispetto quelle con dissipatore ad aria?
dipende a quanto stavi con le temp ad aria. comunque no, in linea di massima non è normale. avrai magari qualche bolla
razor820
20-12-2021, 22:17
ma è normale che liquidando la 3080 col kit alphacool, le temperature sono calate solamente di 5-10 gradi rispetto quelle con dissipatore ad aria?
che temperature ti trovi?
ma è normale che liquidando la 3080 col kit alphacool, le temperature sono calate solamente di 5-10 gradi rispetto quelle con dissipatore ad aria?
5-10 gradi in meno non sono tanti, ma devi anche valutare le frequenze di lavoro, magari ad aria tagliava di brutto, invece ora restano alte.
La mia ad aria stava fra i 60° ed i 70°, pero' tagliava parecchio, ora a liquido arriva a 50°/55°, ma tiene sempre la frequenza massima fissa e come resa finale c'e' una bella differenza.
ciao a tutti.. ho liquidato la mia inno3d 3080 con un kit a liquido dell'alphacool. Le temperature sono scese ma forse non come dovrebbero. La gpu fa circa 50° rispetto ai 67-68 di prima, ma la cosa strana è quella della junction memory che rimane sugli 80° sotto sforzo. E' normale o ho cannato qualcosa?
aggiorno la situazione relativa ai pad dell'alphacool con la rtx 3080: ho cambiato i pad del cooler con quelli extreme della gelid da 1,5 mm ed effettivamente la junction temperature e' scesa da 80 a 58 gradi in superposition ma mi e' aumentata quella della gpu da circa 50 a 60 gradi. Ho mantenuto i pad dell'alphacool per il blackplate in quanto aderiscono perfettamente al limite li cambio con quelli della thermalright. Tirando le somme sono proprio i pad da 1 mm forniti con il kit ad essere non proprio di alta qualita' e secondo me anche un po'troppo sottili.
Hai messo i pad più alti, di 0,5 e ai detto che le temperature del core sono salite di 10°, quindi 60°.
Se vuoi temperature più basse anche sul core servono dei pad perfetti (magari 1,25mm o 1mm)forse con quelli che hai adesso non c'è abbastanza pressione sul die.
Oppure sono le ventole ad andare troppo piano. Spesso chi a il liquido ed ha 30° usa radiatori esterni e ventole delta. :asd:
slide1965
21-12-2021, 09:52
Oppure sono le ventole ad andare troppo piano. Spesso chi a il liquido ed ha 30° usa radiatori esterni e ventole delta. :asd:
presente:D
https://i.ibb.co/LRxcQft/4-DCA7-DAF-8-D92-447-C-A162-85835-CA11982.jpg (https://ibb.co/PjcPT8h)
Vabbè ragazzi, ho fatto la mattata... :D
https://cdn.videocardz.com/1/2021/12/RTX-3090-Ti-by-ASUS-TUF-768x762.jpg
Bella!:)
Hai messo i pad più alti, di 0,5 e ai detto che le temperature del core sono salite di 10°, quindi 60°.
Se vuoi temperature più basse anche sul core servono dei pad perfetti (magari 1,25mm o 1mm)forse con quelli che hai adesso non c'è abbastanza pressione sul die.
Oppure sono le ventole ad andare troppo piano. Spesso chi a il liquido ed ha 30° usa radiatori esterni e ventole delta. :asd:
ad aria facevo sui 67-70 con t junction sui 90. Ora mediamente la gpu sta sui 60 e temp memoria sui 78. Confermo che i pad lato gpu sono da 1,5 mm contro quelli da 1 mm originali. Pad da 1,25 mm mi sa che non esistono. Sono combattuto se prendere quelli da 1 mm o no
Cutter90
22-12-2021, 06:49
Ecco perchè liquidare non fa proprio per me... gran soldi e tempo (oltre che impegno e una percentuale di rischio), per poi avere temperature poco più basse. Delle due prendo una scheda ad aria silenziosa e via....
Thunder-74
22-12-2021, 07:39
Ecco perchè liquidare non fa proprio per me... gran soldi e tempo (oltre che impegno e una percentuale di rischio), per poi avere temperature poco più basse. Delle due prendo una scheda ad aria silenziosa e via....
Questo caso mi sembra di capire che il tutto non sia efficiente...
Per capire se il loop sta lavorando come si deve, si vanno a misurare i delta temp tra liquido/ambiente e liquido/GPU. Queste dovrebbero essere sui 10 gradi. Quindi vuol dire avere la VGA 20 gradi sopra quella ambiente.
La mia situazione attuale: casa 25 gradi, VGA 45/47 gradi, VRAM/Hotspot 60/62 gradi rumore minimo, che è il medesimo in idle come in full.
Per me tenere una VGA con le ventole a palla è impensabile. Quelle rare volte che accendo la PS4. mi prende a male...
Cutter90
22-12-2021, 07:47
Questo caso mi sembra di capire che il tutto non sia efficiente...
Per capire se il loop sta lavorando come si deve, si vanno a misurare i delta temp tra liquido/ambiente e liquido/GPU. Queste dovrebbero essere sui 10 gradi. Quindi vuol dire avere la VGA 20 gradi sopra quella ambiente.
La mia situazione attuale: casa 25 gradi, VGA 45/47 gradi, VRAM/Hotspot 60/62 gradi rumore minimo, che è il medesimo in idle come in full.
Per me tenere una VGA con le ventole a palla è impensabile. Quelle rare volte che accendo la PS4. mi prende a male...
Ingame non ho mai visto uno a liquido fare 45-47 gradi, ma sempre sopra i 50 dai video sul tubo. E avere 10-15 gradi in meno non mi pare giustificare assolutamente tutta la mole di lavoro e spesa. La questione rumore già la capisco di più, ma a meno di non avere il pc attaccato alle orecchie.....
Iop avendocelo dietro al tv le posso tenere anche al 100% le ventole, senza darmi grossi fastidi
davide155
22-12-2021, 07:49
Ma solo io a liquido ho la 3080 che non supera i 39gradi in questo periodo?
Dipende molto anche dai giochi ma in forza5 (molto leggero) ed halo (uguale) non supero quella cifra nemmeno dopo 1 ora di gioco.
E sopratutto sembra di non aver acceso il pc dal silenzio che fa.
Cutter90
22-12-2021, 08:03
Ma solo io a liquido ho la 3080 che non supera i 39gradi in questo periodo?
Dipende molto anche dai giochi ma in forza5 (molto leggero) ed halo (uguale) non supero quella cifra nemmeno dopo 1 ora di gioco.
E sopratutto sembra di non aver acceso il pc dal silenzio che fa.
39 gradi li avrai in quei giochi in cui non sfrutti la scheda al 100%. Con impiego gpu al 100% vedi che vai molto più su anche a liquido. Ovviamente non avendo frequenze troppo basse preimpostate
Giovamas
22-12-2021, 08:15
solo un saluto boys :) .. spero tutto bene ho scritto poco ultimamente. la mia TUF comunque compie l'anno ed è una roccia
slide1965
22-12-2021, 08:31
Ecco perchè liquidare non fa proprio per me... gran soldi e tempo (oltre che impegno e una percentuale di rischio), per poi avere temperature poco più basse. Delle due prendo una scheda ad aria silenziosa e via....
Dipende dall’impianto, se spinge le temp sono enormemente più basse e se sai quello che fai non c’è nessun rischio ;)
La mia 2080ti non penso scaldi come le 3000 o le 6000 ma sta di fatto che sotto carico 100% nei bench sta a 38 gradi , c’è un abisso rispetto al tenerla ad aria
davide155
22-12-2021, 08:41
39 gradi li avrai in quei giochi in cui non sfrutti la scheda al 100%. Con impiego gpu al 100% vedi che vai molto più su anche a liquido. Ovviamente non avendo frequenze troppo basse preimpostateQuesta è una prova che ho fatto al volo.... 15 minuti di rdr2 al massimo del dettaglio, ovviamente senza dlss.
Notare i 360w nonostante sia in downvolt daily a 2070mhz e memorie a +1300mhz.
Gpu a 37gradi, temperatura del liquido 27 gradi.
Se l'impianto è fatto bene nulla è impossibile.
https://uploads.tapatalk-cdn.com/20211222/1b2bd8cdcb6335640b9280fc58c029a3.jpg
Ingame non ho mai visto uno a liquido fare 45-47 gradi, ma sempre sopra i 50 dai video sul tubo. E avere 10-15 gradi in meno non mi pare giustificare assolutamente tutta la mole di lavoro e spesa. La questione rumore già la capisco di più, ma a meno di non avere il pc attaccato alle orecchie.....
Iop avendocelo dietro al tv le posso tenere anche al 100% le ventole, senza darmi grossi fastidi
Con il liquido anche se hai 50° la scheda tiene il clock fisso e costante, ma soprattutto il calore viene spostato direttamente fuori da case, ad aria la scheda per forza di cose taglia il clock ed il case diventa un vero e proprio forno, senza contare il rumore assurdo delle ventole.
Poi che sia economicamente sensato e' difficile dirlo, diventa molto personale la cosa...
Cutter90
22-12-2021, 08:56
Questa è una prova che ho fatto al volo.... 15 minuti di rdr2 al massimo del dettaglio, ovviamente senza dlss.
Notare i 360w nonostante sia in downvolt daily a 2070mhz e memorie a +1300mhz.
Gpu a 37gradi, temperatura del liquido 27 gradi.
Se l'impianto è fatto bene nulla è impossibile.
https://uploads.tapatalk-cdn.com/20211222/1b2bd8cdcb6335640b9280fc58c029a3.jpg
Ok, non pensavo. Anche se per essere a liquido sei un po' basso di frequenza e watt. Dovresti stare anche sopra i 2100. Sei abbastanza conservativo in questo stato. Ed è questo che intendevo. Bisogna vedere come se la cava con tutti i watt disponibili. Così in sostanza non hai guadagnato performance rispetto che andare ad aria. Anche io se metto a 350 watt la 3090 faccio 50 gradi invece dei 60-65 soliti in metro e cp2077.... ad aria. Non so se segui il mio concetto
Hai anche un gico con rt pesante come cp2077 e Metro Enanched?
Cutter90
22-12-2021, 08:59
Con il liquido anche se hai 50° la scheda tiene il clock fisso e costante, ma soprattutto il calore viene spostato direttamente fuori da case, ad aria la scheda per forza di cose taglia il clock ed il case diventa un vero e proprio forno, senza contare il rumore assurdo delle ventole.
Poi che sia economicamente sensato e' difficile dirlo, diventa molto personale la cosa...
La prima parte del discorso è valida solo in caso di airflow non perfetto, di un case piccolo oppure di una cpu al limite. In condizioni ideali che il case sia "caldo" è irrilevante lato performance.
Rumore assurdo dipende da che gpu si ha e da dove sia il pc. Difficile dire quanto sia assurdo il rumore per ognuno di noi.
Economicamente è insensato tanto quanto prendere una 3090 per il solo gaming.
Ecco perchè liquidare non fa proprio per me... gran soldi e tempo (oltre che impegno e una percentuale di rischio), per poi avere temperature poco più basse. Delle due prendo una scheda ad aria silenziosa e via....
ma anche no :asd:
le perfomance di un custom loop te le sogni ad aria, in full overcloccato hai il rumore di una configurazione ad aria in idle :asd: certo, devi sapere quello che fai (non ci vuole sta gran scienza in realtà) e fare dei loop fatti bene soprattutto se integri i radiatori nel case
L'unico vero neo è il costo, la manutenzione dipende da come hai fatto il loop e se non hai fatto qualcosa da pervertiti (es. tubi rigidi) hai qualche ora da dedicarci una volta all'anno e nulla più....
Cutter90
22-12-2021, 09:05
ma anche no :asd:
le perfomance di un custom loop te le sogni ad aria, in full overcloccato hai il rumore di una configurazione ad aria in idle :asd: certo, devi sapere quello che fai (non ci vuole sta gran scienza in realtà) e fare dei loop fatti bene soprattutto se integri i radiatori nel case
L'unico vero neo è il costo, la manutenzione dipende da come hai fatto il loop e se non hai fatto qualcosa da pervertiti (es. tubi rigidi) hai qualche ora da dedicarci una volta all'anno e nulla più....
Le performance sono assolutamente irrilevanti come vantaggio in un custom loop. C'è caso che con la mia ad aria vada più forte di chi ha un custom loop.
I vantaggi sono di consumi e rumore, a scapito di costi e manutenzione, oltre ad impegno.
Poi c'è il fattore estetico, altra cosa.
Poi che sia economicamente sensato e' difficile dirlo, diventa molto personale la cosa...
se ti fai la 3090 l'economicamente sensato l'hai abbandonato da mo' imho :asd:
Cutter90
22-12-2021, 09:09
se ti fai la 3090 l'economicamente sensato l'hai abbandonato da mo' imho :asd:
Infatti. Il senso è lo stesso :D
slide1965
22-12-2021, 09:16
Le performance sono assolutamente irrilevanti come vantaggio in un custom loop. C'è caso che con la mia ad aria vada più forte di chi ha un custom loop.
I vantaggi sono di consumi e rumore, a scapito di costi e manutenzione, oltre ad impegno.
Poi c'è il fattore estetico, altra cosa.
Ci sono solo 2 pro nello stare ad aria , risparmi dei soldi e sei più veloce a smontare la scheda dal case quando ti serve farlo , per il resto non c’è partita su tutti i fronti.
Un case piu caldo non limita solo la gpu , che è quello del meno, ma rompe le scatole anche al resto dei componenti.
Le performance sono assolutamente irrilevanti come vantaggio in un custom loop. C'è caso che con la mia ad aria vada più forte di chi ha un custom loop.
I vantaggi sono di consumi e rumore, a scapito di costi e manutenzione, oltre ad impegno.
Poi c'è il fattore estetico, altra cosa.
amico mio, non mi convincerai mai che la tua 3090 in full con PL a 500W abbia contemporaneamente la stesse prestazioni e le perfomance acustiche di una qualsiasi altra vga a 500W con fullcover e custom loop, senza parlare di ogni componente isolato, il calore dell avga non influenza minimamente la cpu e la ram a differenza di quando sei ad aria
tutti quelli di cui sopra ti stanno parlando di un pc che hanno in parte alle orecchie o al più sotto la scrivania, non al piano di sotto o dietro un muro o la classica "si ma tanto quando gioco ho le cuffie" perchè a quel punto vale tutto
detto questo ero ad aria anche io da cento anni fino a sei mesi fa, non voglio tirarmela come il guru del liquido ma ecco certe cose non si possono leggere su un forum di cosiddetti esperti
Pucceddu
22-12-2021, 09:20
Questa è una prova che ho fatto al volo.... 15 minuti di rdr2 al massimo del dettaglio, ovviamente senza dlss.
Notare i 360w nonostante sia in downvolt daily a 2070mhz e memorie a +1300mhz.
Gpu a 37gradi, temperatura del liquido 27 gradi.
Se l'impianto è fatto bene nulla è impossibile.
https://uploads.tapatalk-cdn.com/20211222/1b2bd8cdcb6335640b9280fc58c029a3.jpg
Niente di miracoloso,in 2k a 60fps anche la mia fe ad aria non supera praticamente i 60 gradi con rumore molto limitato.
Sali a 4k e fps sbloccati e vedi come ti salgono le temps
se ti fai la 3090 l'economicamente sensato l'hai abbandonato da mo' imho :asd:
Lo so, ma dal momento che si e' perso l'economicamente sensato, il custom loop era la ciliegina sulla torta... :fagiano:
Cutter90
22-12-2021, 09:25
Ci sono solo 2 pro nello stare ad aria , risparmi dei soldi e sei più veloce a smontare la scheda dal case quando ti serve farlo , per il resto non c’è partita su tutti i fronti.
Un case piu caldo non limita solo la gpu , che è quello del meno, ma rompe le scatole anche al resto dei componenti.
Si ma sono le proporzioni dei pro e contro che contano:
Ad aria risparmi TANTI soldi a fronte di una perdita di performance quasi irrilevante ingame. Il "non c'è Partita" è in realtà "un po' meglio" come consumi. "molto meglio" come rumorosità. Anche il fatto che la ram stai a 5 gradi in più, la cpu a 5 gradi in più e gli ssd magari è assolutamente un dato fine a se stesso dato che ingame e nell'utilizzo quotidiano non cambia assolutamente nulla.
Se si ha poi un case grande a maggior ragione....
Il punto non è che a liquido sia meglio o peggio. E' ovvio che sia meglio sotto tutti i punti di vista (in alcuni di niente, in altri aspetti di più). LA vera domanda è: ne vale la pena in base al mio utilizzo/esigenze in base al rapporto costi/impegno/benefici. Per me è ampiamente NO
Cutter90
22-12-2021, 09:27
amico mio, non mi convincerai mai che la tua 3090 in full con PL a 500W abbia contemporaneamente la stesse prestazioni e le perfomance acustiche di una qualsiasi altra vga a 500W con fullcover e custom loop, senza parlare di ogni componente isolato, il calore dell avga non influenza minimamente la cpu e la ram a differenza di quando sei ad aria
tutti quelli di cui sopra ti stanno parlando di un pc che hanno in parte alle orecchie o al più sotto la scrivania, non al piano di sotto o dietro un muro o la classica "si ma tanto quando gioco ho le cuffie" perchè a quel punto vale tutto
detto questo ero ad aria anche io da cento anni fino a sei mesi fa, non voglio tirarmela come il guru del liquido ma ecco certe cose non si possono leggere su un forum di cosiddetti esperti
Leggi il mio post sopra e magari evitiamo cortesemente di trattare chi argomenta e parla di pareri personali con supponenza, grazie. Magari leggiamo bene, prima di partire in quarta travisando i concetti
mi scuso se ti sei sentito offeso, non era mia intenzione
Amen, goditi il tuo pc come meglio credi che ti devo dire :stordita:
slide1965
22-12-2021, 09:34
Si ma sono le proporzioni dei pro e contro che contano:
Ad aria risparmi TANTI soldi a fronte di una perdita di performance quasi irrilevante ingame. Il "non c'è Partita" è in realtà "un po' meglio" come consumi. "molto meglio" come rumorosità. Anche il fatto che la ram stai a 5 gradi in più, la cpu a 5 gradi in più e gli ssd magari è assolutamente un dato fine a se stesso dato che ingame e nell'utilizzo quotidiano non cambia assolutamente nulla.
Se si ha poi un case grande a maggior ragione....
Il punto non è che a liquido sia meglio o peggio. E' ovvio che sia meglio sotto tutti i punti di vista (in alcuni di niente, in altri aspetti di più). LA vera domanda è: ne vale la pena in base al mio utilizzo/esigenze in base al rapporto costi/impegno/benefici. Per me è ampiamente NO
Se ne vale la pena devi saperlo tu, è personale, quello che posso dirti è che io da quando sono passato a liquido non tornerei ad aria neanche sotto tortura ma ripeto è soggettivo, a me da soddisfazione avere il pc che sembra spento (come rumore )quando sei a pieno carico , avere tutti i componenti tirati al limite in oc grazie alla stabilità che le basse temp ti danno, infine mi piace anche l’aspetto estetico di un pc sotto liquido, sto pensando se mettere sotto liquido pure la ram vedi un po’ te ….lol
Cutter90
22-12-2021, 09:35
mi scuso se ti sei sentito offeso, non era mia intenzione
Amen, goditi il tuo pc come meglio credi che ti devo dire :stordita:
Ma no figurati, nessuna offesa
Proprio perchè sono curioso vorrei avere esempi di chi è a liquido per confrontare. E' utile a tutti.
Le performance sono assolutamente irrilevanti come vantaggio in un custom loop. C'è caso che con la mia ad aria vada più forte di chi ha un custom loop.
I vantaggi sono di consumi e rumore, a scapito di costi e manutenzione, oltre ad impegno.
Poi c'è il fattore estetico, altra cosa.
Beh indubbiamente dipende dal tipo di scheda. Ti posso portare il mio esempio.
io ho la Strix OC 3090.
Ad aria (scheda fuori dal case tamb 23°):
2100 core; Stock memorie; 1,06V v-core;
ventole in game (tipo control o CP2077) 75% circa max;
Core max sui 55°/60°; Mem 80°/87° picchi a 94°;
A liquido (WB fronte e retro attivi):
2100 core; +1000 mem; 0.985/1V v-core;
ventole impianto 45/60%;
Core max 40°/45°; Mem max 70° picchi a 74°;
Ovviamente la cosa che noti prima di tutto è il silenzio, poi la facilità di gestire l'OC con meno tagli di frequenza.
Poi si, fare un custom loop richiede tempo, pazienza, e soldi. Ma mai come con una 3090 la resa fu così marcata, soprattutto lato memorie.
A livello di core la resa è la solita di un custom loop su una GPU top di gamma.
davide155
22-12-2021, 09:41
Ok, non pensavo. Anche se per essere a liquido sei un po' basso di frequenza e watt. Dovresti stare anche sopra i 2100. Sei abbastanza conservativo in questo stato. Ed è questo che intendevo. Bisogna vedere come se la cava con tutti i watt disponibili. Così in sostanza non hai guadagnato performance rispetto che andare ad aria. Anche io se metto a 350 watt la 3090 faccio 50 gradi invece dei 60-65 soliti in metro e cp2077.... ad aria. Non so se segui il mio concetto
Hai anche un gico con rt pesante come cp2077 e Metro Enanched?Ci credi che non gli ho mai tirato il collo alla suprimX? Dai test che uscirono appena uscita vidi che non c'era praticamente margine di guadagno in oc con le ampere, quindi ho subito giocato al ribasso con i voltaggi. Comunque ecco a te quello che mi avevi chiesto, voltaggio default e leggero oc sul core e ram, ho inserito anche la temp del liquido a schermo ed ovviamente dopo almeno 20minuti di gioco:
https://uploads.tapatalk-cdn.com/20211222/c77ee28309b75e2973f7c6858ca62d92.jpg
Niente di miracoloso,in 2k a 60fps anche la mia fe ad aria non supera praticamente i 60 gradi con rumore molto limitato.
Sali a 4k e fps sbloccati e vedi come ti salgono le tempsVedi che non ho bloccato niente. Ti sembro uno che limita il framerate? Mi sento offeso :asd:
Comunque vedi lo screen sopra.
2k o 4k non cambia niente in fatto di temperatura, cambia invece il tipo di richiesta fatta dal tipo di motore grafico, RT ecc.
Potete comparare un impianto a liquido custom con un dissipatore ad aria quanto volete, ma non c'è paragone mi dispiace, soprattutto con quei forni di FE.
Cutter90
22-12-2021, 09:44
Beh indubbiamente dipende dal tipo di scheda. Ti posso portare il mio esempio.
io ho la Strix OC 3090.
Ad aria (scheda fuori dal case tamb 23°):
2100 core; Stock memorie; 1,06V v-core;
ventole in game (tipo control o CP2077) 75% circa max;
Core max sui 55°/60°; Mem 80°/87° picchi a 94°;
A liquido (WB fronte e retro attivi):
2100 core; +1000 mem; 0.985/1V v-core;
ventole impianto 45/60%;
Core max 40°/45°; Mem max 70° picchi a 74°;
Ovviamente la cosa che noti prima di tutto è il silenzio, poi la facilità di gestire l'OC con meno tagli di frequenza.
Poi si, fare un custom loop richiede tempo, pazienza, e soldi. Ma mai come con una 3090 la resa fu così marcata, soprattutto lato memorie.
A livello di core la resa è la solita di un custom loop su una GPU top di gamma.
Eh però vedi il discorso. Ok, le temperature ci siamo, anche se alla fine il risparmio è minimo pure su quelle. Ma in performance? il +1000 sulle ram lo puoi dare anche ad aria dato che non cambiano le temperature all'aumentare delle frequenze. Ovviamente rumore minimizzato
E le performance ingame invece? Perchè è quello che a me interessa.
Cutter90
22-12-2021, 09:45
Ci credi che non gli ho mai tirato il collo alla suprimX? Dai test che uscirono appena uscita vidi che non c'era praticamente margine di guadagno in oc con le ampere, quindi ho subito giocato al ribasso con i voltaggi. Comunque ecco a te quello che mi avevi chiesto, voltaggio default e leggero oc sul core e ram, ho inserito anche la temp del liquido a schermo ed ovviamente dopo almeno 20minuti di gioco:
https://uploads.tapatalk-cdn.com/20211222/c77ee28309b75e2973f7c6858ca62d92.jpg
Vedi che non ho bloccato niente. Ti sembro uno che limita il framerate? Mi sento offeso :asd:
Comunque vedi lo screen sopra.
2k o 4k non cambia niente in fatto di temperatura, cambia invece il tipo di richiesta fatta dal tipo di motore grafico, RT ecc.
Potete comparare un impianto a liquido custom con un dissipatore ad aria quanto volete, ma non c'è paragone mi dispiace, soprattutto con quei forni di FE.
Ok ok, grazie del test. Poi era interessante sapere anche ad aria quanto facevi, ma va beh, il guadagno c'è
davide155
22-12-2021, 09:46
Eh però vedi il discorso. Ok, le temperature ci siamo, anche se alla fine il risparmio è minimo pure su quelle. Ma in performance? il +1000 sulle ram lo puoi dare anche ad aria dato che non cambiano le temperature all'aumentare delle frequenze. Ovviamente rumore minimizzato
E le performance ingame invece? Perchè è quello che a me interessa.
Ad aria le ram stavano a 95 gradi.
Ad acqua con pad Gelid stanno a 50gradi.
Per me tutto il custom loop vale quel numero li. Oltre ovviamente al silenzio assoluto.
davide155
22-12-2021, 09:49
Ok ok, grazie del test. Poi era interessante sapere anche ad aria quanto facevi, ma va beh, il guadagno c'è
Ad aria gpu core a 75 gradi, ram a 90-95 (con switch su oc, quindi ventole più veloci e rumorose). Con switch su silent, 85gradi.
Il salto è stato enorme nel mio caso.
Però tutto dipende dalla massa radiante, dal tipo di ventole usate nel loop, come lo si gestisce e diverse altre cose.
Se uno ha il case adatto e sa farlo, il guadagno è impareggiabile.
Ovvio se si crea un custom loop con 700watt riversati in acqua e solo un paio di radiatori 360mm slim, ha sbagliato in partenza.
Io son dell'idea che se una cosa va fatta, la si fa per bene, altrimenti meglio stare ad aria, si risparmia soldi e tempo. Però poi non bisogna lamentarsi se il 10 di agosto le memorie della gpu raggiungono i 110gradi (visti coi miei occhi in diversi setup con ampere) :sofico:
Cutter90
22-12-2021, 10:04
Ad aria gpu core a 75 gradi, ram a 90-95 (con switch su oc, quindi ventole più veloci e rumorose). Con switch su silent, 85gradi.
Il salto è stato enorme nel mio caso.
Però tutto dipende dalla massa radiante, dal tipo di ventole usate nel loop, come lo si gestisce e diverse altre cose.
Se uno ha il case adatto e sa farlo, il guadagno è impareggiabile.
Ovvio se si crea un custom loop con 700watt riversati in acqua e solo un paio di radiatori 360mm slim, ha sbagliato in partenza.
Io son dell'idea che se una cosa va fatta, la si fa per bene, altrimenti meglio stare ad aria, si risparmia soldi e tempo. Però poi non bisogna lamentarsi se il 10 di agosto le memorie della gpu raggiungono i 110gradi (visti coi miei occhi in diversi setup con ampere) :sofico:
ok, grazie
Sulle Raa.... ho letto che la temperatura di esercizio massima è a 105 gradi più o meno. Il dirsco è poi questo. per me che stiano a 90 o a 70 cambia poco. Le prestazionis ono quelle e siamo in entrambi i casi dentro l'esercizio. Calare quel numero è una cosa che serve solo "a mente" di fatto. Perchè il guadagno è solo numerico
Eh però vedi il discorso. Ok, le temperature ci siamo, anche se alla fine il risparmio è minimo pure su quelle. Ma in performance? il +1000 sulle ram lo puoi dare anche ad aria dato che non cambiano le temperature all'aumentare delle frequenze. Ovviamente rumore minimizzato
E le performance in game invece? Perché è quello che a me interessa.
Beh sulla temperatura del core si il risparmio è trascurabile se rapportato in game a livello di performance, non cambia molto, la 3090 spinge sempre e comunque a sufficienza affinché si possa godere dell'esperienza. Ma come temperature in se -10° sono un abisso.
Sulle memorie fai conto che sono come dice davide155 da -35°/40° su giochi leggeri a -10/15° con le memorie in oc rispetto a quelle stock, apprezzo differenze soprattutto nei minimi.
Ad aria +1000 sulle mem non potevo darlo, non potevo dare nemmno +100 perchè andavano in thermal throttling praticamente subito. E comunqe aumentare la frequenza delle ram le scalda eccome, dipende dall'uso che l'engine fa della vram, ma cambia.
E poi c'è la questione rumore, inarrivabile, ad aria il sistema era veramente invadente, poi sarà che io sono abituato al liquido da 15 anni, ma veramente inarrivabile.
Quindi recap:
Temp core -10°/-15°
Temp mem: -40°/-10° (a seconda dell'attivita)
Rumore: ineguagliabile.
Stabilita dell'OC: molti meno tagli, oc più semplice, possibilità di salire con freq. v-ram.
Performance in game: con una 3090 guadagni trascurabili, forse in 4K più apprezzabili, soprattutto nei minimi e nella fluidità generale.
Scopo personale del liquidare in ordine di importanza (questo ti da anche la chiave di lettura dei miei commenti):
1° - massimizzare il silenzio;
2° - mantenere temp < rispetto ad un ottimo impianto ad aria;
3° - mantenere un livello di performance >= rispetto ad un ottimo impianto ad aria;
4° - aspetto;
ok, grazie
Sulle Raa.... ho letto che la temperatura di esercizio massima è a 105 gradi più o meno. Il dirsco è poi questo. per me che stiano a 90 o a 70 cambia poco. Le prestazionis ono quelle e siamo in entrambi i casi dentro l'esercizio. Calare quel numero è una cosa che serve solo "a mente" di fatto. Perchè il guadagno è solo numerico
NON APRIAMO IL SOLITO FLAME, tanto lo sapete, io con la scheda ci mino anche.
Calare la temp delle vram in gioco ti permette frequenze più alte (nel limite della bontà del silicio) ed i risultati sono apprezzabili marginalmente solo a risoluzioni elevate nei minimi e forse a risoluzioni da gioco competitivo, ma non saprei.
Tuttavia lasciare una scheda come la 3090 a fare operazioni "memory intensive" h24 quando non usata per altro, ad aria è un suicidio. A liquido invece si ottengono prestazioni imbarazzanti a temperature di esercizio praticamente ininfluenti per i componenti, Core a 42° Mem a 72° per 128Mh/s, ed il silenzio quasi assoluto dell'impianto.
Beh indubbiamente dipende dal tipo di scheda. Ti posso portare il mio esempio.
io ho la Strix OC 3090.
Ad aria (scheda fuori dal case tamb 23°):
2100 core; Stock memorie; 1,06V v-core;
ventole in game (tipo control o CP2077) 75% circa max;
Core max sui 55°/60°; Mem 80°/87° picchi a 94°;
A liquido (WB fronte e retro attivi):
2100 core; +1000 mem; 0.985/1V v-core;
ventole impianto 45/60%;
Core max 40°/45°; Mem max 70° picchi a 74°;
Ovviamente la cosa che noti prima di tutto è il silenzio, poi la facilità di gestire l'OC con meno tagli di frequenza.
Poi si, fare un custom loop richiede tempo, pazienza, e soldi. Ma mai come con una 3090 la resa fu così marcata, soprattutto lato memorie.
A livello di core la resa è la solita di un custom loop su una GPU top di gamma.
Invidio i tuoi 2100, la tua ha 3 pin di alimentazione?
Invidio i tuoi 2100, la tua ha 3 pin di alimentazione?
Si 3 pin.
slide1965
22-12-2021, 10:58
NON APRIAMO IL SOLITO FLAME, tanto lo sapete, io con la scheda ci mino anche.
Calare la temp delle vram in gioco ti permette frequenze più alte (nel limite della bontà del silicio) ed i risultati sono apprezzabili marginalmente solo a risoluzioni elevate nei minimi e forse a risoluzioni da gioco competitivo, ma non saprei.
Tuttavia lasciare una scheda come la 3090 a fare operazioni "memory intensive" h24 quando non usata per altro, ad aria è un suicidio. A liquido invece si ottengono prestazioni imbarazzanti a temperature di esercizio praticamente ininfluenti per i componenti, Core a 42° Mem a 72° per 128Mh/s, ed il silenzio quasi assoluto dell'impianto.
Hai il back attivo sulla 90?
Hai il back attivo sulla 90?
Io l'ho messo, ma direi che e' quasi obbligatorio.
Io l'ho messo, ma direi che e' quasi obbligatorio.
Hai il back attivo sulla 90?
Si certo, avere un custom loop e non approfittare ad eliminare il maggior problema delle 90 sarebbe un'eresia. Personalmente lo consiglio anche sulle 80TI, dove comunque aiuta a scaricare il calore dal retro del pcb.
Cutter90
22-12-2021, 11:24
Beh sulla temperatura del core si il risparmio è trascurabile se rapportato in game a livello di performance, non cambia molto, la 3090 spinge sempre e comunque a sufficienza affinché si possa godere dell'esperienza. Ma come temperature in se -10° sono un abisso.
Sulle memorie fai conto che sono come dice davide155 da -35°/40° su giochi leggeri a -10/15° con le memorie in oc rispetto a quelle stock, apprezzo differenze soprattutto nei minimi.
Ad aria +1000 sulle mem non potevo darlo, non potevo dare nemmno +100 perchè andavano in thermal throttling praticamente subito. E comunqe aumentare la frequenza delle ram le scalda eccome, dipende dall'uso che l'engine fa della vram, ma cambia.
E poi c'è la questione rumore, inarrivabile, ad aria il sistema era veramente invadente, poi sarà che io sono abituato al liquido da 15 anni, ma veramente inarrivabile.
Quindi recap:
Temp core -10°/-15°
Temp mem: -40°/-10° (a seconda dell'attivita)
Rumore: ineguagliabile.
Stabilita dell'OC: molti meno tagli, oc più semplice, possibilità di salire con freq. v-ram.
Performance in game: con una 3090 guadagni trascurabili, forse in 4K più apprezzabili, soprattutto nei minimi e nella fluidità generale.
Scopo personale del liquidare in ordine di importanza (questo ti da anche la chiave di lettura dei miei commenti):
1° - massimizzare il silenzio;
2° - mantenere temp < rispetto ad un ottimo impianto ad aria;
3° - mantenere un livello di performance >= rispetto ad un ottimo impianto ad aria;
4° - aspetto;
La parte in grassetto è per me la priorità assoluta. Da qui, le mie perplessità sullo spendere centinaia e centinaia di euro e decine di ore. Ma ci sta, esigenze.
Ho fatto tantissimi test su tanti giochi. Alle ram dare+0 o +600 o +800 non le fa assolutamente aumentare di temperatura. Ma nemmeno un grado, te lo garantisco.
La parte in grassetto è per me la priorità assoluta. Da qui, le mie perplessità sullo spendere centinaia e centinaia di euro e decine di ore. Ma ci sta, esigenze.
Ho fatto tantissimi test su tanti giochi. Alle ram dare+0 o +600 o +800 non le fa assolutamente aumentare di temperatura. Ma nemmeno un grado, te lo garantisco.
Si mi ricordo, probabilmente l'attività sulle vram, in game non è minimamente paragonabile a quella di attività "memory intensive". Perché ti posso assicurare che cambia e pure molto.
Cutter90
22-12-2021, 11:39
Si mi ricordo, probabilmente l'attività sulle vram, in game non è minimamente paragonabile a quella di attività "memory intensive". Perché ti posso assicurare che cambia e pure molto.
Ah ecco. Allora ci sta :)
slide1965
22-12-2021, 12:10
Si certo, avere un custom loop e non approfittare ad eliminare il maggior problema delle 90 sarebbe un'eresia. Personalmente lo consiglio anche sulle 80TI, dove comunque aiuta a scaricare il calore dal retro del pcb.
Io l'ho messo, ma direi che e' quasi obbligatorio.
Giusto .
Ho letto che la 3090ti avrà le memorie tutte da una parte ? Sapete qualcosa ?
Thunder-74
22-12-2021, 12:11
Comunque molti partono da un assunto sbagliato, quello di paragonare le temperature di pc differenti che siano ad aria o a liquido. Ho parlato di Delta, proprio perché tutto parte dalla temperatura ambiente che ogni persone può avere nella stanza . C è chi preferisce stare sotto i 20 gradi chi sopra ai 25 . Su YT ci sono video di persone avere 32 gradi a liquido sulla gpu , ma vivono in paesi nordici è in stanza con 16 gradi . Se apro la finestra in inverno, avoglia a scendere , ma poi è la febbre a salire :fagiano:
Comunque di base ci deve essere la voglia e la disponibilità tempo/denaro nel cimentarsi in un custom loop. Spesso la parte trainante è la voglia di fare quello step in più in un ambito hobbistico, una soddisfazione personale che porta con se parecchi vantaggi e qualche svantaggio.
Inviato dal mio iPhone X utilizzando Tapatalk
Giusto .
Ho letto che la 3090ti avrà le memorie tutte da una parte ? Sapete qualcosa ?
Avevo letto che avevano cambiato qualcosa sulle ram, ma non saprei con certezza. A logica dovrebbe averle su entrambe le parti.
Comunque molti partono da un assunto sbagliato, quello di paragonare le temperature di pc differenti che siano ad aria o a liquido. Ho parlato di Delta, proprio perché tutto parte dalla temperatura ambiente che ogni persone può avere nella stanza . C è chi preferisce stare sotto i 20 gradi chi sopra ai 25 . Su YT ci sono video di persone avere 32 gradi a liquido sulla gpu , ma vivono in paesi nordici è in stanza con 16 gradi . Se apro la finestra in inverno, avoglia a scendere , ma poi è la febbre a salire :fagiano:
Comunque di base ci deve essere la voglia e la disponibilità tempo/denaro nel cimentarsi in un custom loop. Spesso la parte trainante è la voglia di fare quello step in più in un ambito hobbistico, una soddisfazione personale che porta con se parecchi vantaggi e qualche svantaggio.
Inviato dal mio iPhone X utilizzando Tapatalk
Essendo il primo loop che ho fatto confermo la soddisfazione nel farlo. E' proprio bello stare a scegliere tutti i componenti, farsi lo studio su come posizionare le cose ed anche montarlo nel pc. :)
frafelix
22-12-2021, 12:47
Giusto .
Ho letto che la 3090ti avrà le memorie tutte da una parte ? Sapete qualcosa ?
Dovrebbero aver raddoppiato la densità in gb dei chip, quindi dovrebbe avere la stessa quantità di ram nella metà dei chip, di conseguenza essere solo da un lato. Sempre se le voci sono vere
mikael84
22-12-2021, 12:58
Giusto .
Ho letto che la 3090ti avrà le memorie tutte da una parte ? Sapete qualcosa ?
Si, con la 3090ti debutta la doppia densità anche in g6x. Quindi i chip saranno da 2gb, non più in clamshell.
Anche la 3070ti verrà lanciata così.
slide1965
22-12-2021, 13:04
Si, con la 3090ti debutta la doppia densità anche in g6x. Quindi i chip saranno da 2gb, non più in clamshell.
Anche la 3070ti verrà lanciata così.
Dovrebbero aver raddoppiato la densità in gb dei chip, quindi dovrebbe avere la stessa quantità di ram nella metà dei chip, di conseguenza essere solo da un lato. Sempre se le voci sono vere
con le memorie solo da un lato ho letto che il prezzo di acquisto sarà dimezzato:muro: :sofico: :banned:
amon.akira
22-12-2021, 13:05
Comunque molti partono da un assunto sbagliato, quello di paragonare le temperature di pc differenti che siano ad aria o a liquido. Ho parlato di Delta, proprio perché tutto parte dalla temperatura ambiente che ogni persone può avere nella stanza . C è chi preferisce stare sotto i 20 gradi chi sopra ai 25 . Su YT ci sono video di persone avere 32 gradi a liquido sulla gpu , ma vivono in paesi nordici è in stanza con 16 gradi . Se apro la finestra in inverno, avoglia a scendere , ma poi è la febbre a salire :fagiano:
Comunque di base ci deve essere la voglia e la disponibilità tempo/denaro nel cimentarsi in un custom loop. Spesso la parte trainante è la voglia di fare quello step in più in un ambito hobbistico, una soddisfazione personale che porta con se parecchi vantaggi e qualche svantaggio.
Inviato dal mio iPhone X utilizzando Tapatalk
inoltre con ampere ci sono tagli non lineari
taglio1 -15mhz fascia 30°-35°
taglio2 -15mhz fascia 40°-45°
ripristino clock +30mhz fascia 50°-55°
taglio1(di nuovo) -15mhz fascia 60°-65° (io mi fermo qui con la tuf)
etc..
Thunder-74
22-12-2021, 13:10
inoltre con ampere ci sono tagli non lineari
taglio1 -15mhz fascia 30°-35°
taglio2 -15mhz fascia 40°-45°
ripristino clock +30mhz fascia 50°-55°
taglio1(di nuovo) -15mhz fascia 60°-65° (io mi fermo qui con la tuf)
etc..
Quel ripristino è veramente inspiegabile . Sono convito che è un errore nella tabella temp/freq/volt definita da nVidia. Non ha senso
Inviato dal mio iPhone X utilizzando Tapatalk
Anche la mia superati i 50° aumenta il clock.
amon.akira
22-12-2021, 13:49
Quel ripristino è veramente inspiegabile . Sono convito che è un errore nella tabella temp/freq/volt definita da nVidia. Non ha senso
Inviato dal mio iPhone X utilizzando Tapatalk
secondo me chi ha fatto i bios aveva la scheda ad aria e non voleva perdere troppi mhz XD
Anche la mia superati i 50° aumenta il clock.
tutte le ampere :) ormai ne ho provate a bizzeffe
con turing invece si proseguiva taglio3 taglio4 e taglio5 se superavi i 70
Thunder-74
22-12-2021, 13:54
Anche la mia superati i 50° aumenta il clock.
Secondo me è da ricercare nei drivers , perché lo fanno tutte. Sono parametri imposti nel bios, ma anche via drivers possono essere pilotati. Tipo il bios li definisce, ma il software poi agisce dicendo l’ultima, come avviene quando si fa oc con AB ad esempio. Difatti risolsero il bug dei 2ghz via drivers, kappando il boost sotto questa soglia .
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
22-12-2021, 13:56
Ampere è un po' come i Diesel , va fatta scaldare un po' prima di spingere :asd:
frafelix
22-12-2021, 14:12
con le memorie solo da un lato ho letto che il prezzo di acquisto sarà dimezzato:muro: :sofico: :banned:
Magari... Un bel miraggio
mikael84
22-12-2021, 14:28
con le memorie solo da un lato ho letto che il prezzo di acquisto sarà dimezzato:muro: :sofico: :banned:
Si si, come no.:p
FrancoBit
22-12-2021, 14:54
con le memorie solo da un lato ho letto che il prezzo di acquisto sarà dimezzato:muro: :sofico: :banned:
Costeranno di più a causa della miniaturizzazione :ciapet:
Ma no figurati, nessuna offesa
Proprio perchè sono curioso vorrei avere esempi di chi è a liquido per confrontare. E' utile a tutti.
Cutter90 si vede che non hai mai provato un custom loop. Altra storia fidati
Ti dico non farla mai perche poi non tornerai piu indietro:asd:
TigerTank
22-12-2021, 18:35
Costeranno di più a causa della miniaturizzazione :ciapet:
Costeranno di più perchè c'è un "Ti" dietro a "3090".
Il "Ti" dietro a "3080" ha fatto un bel pò di differenza :sofico:
Ingame non ho mai visto uno a liquido fare 45-47 gradi, ma sempre sopra i 50 dai video sul tubo. E avere 10-15 gradi in meno non mi pare giustificare assolutamente tutta la mole di lavoro e spesa. La questione rumore già la capisco di più, ma a meno di non avere il pc attaccato alle orecchie.....
Iop avendocelo dietro al tv le posso tenere anche al 100% le ventole, senza darmi grossi fastidi
Io la tua vga me la immagino così: LINK (https://ostoriginalsoundtracks.files.wordpress.com/2017/06/train_steam.gif).
Ultra powa! :cool: :sofico:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.