View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
radeon_snorky
20-09-2022, 13:13
la mia 3070ti sarà sfigata
ho provato con
memoria +700mhz
core -200mhz 900mV 1920mhz
ho avviato il bench in heaven e dopo pochi secondi fa schermo nero e torna a windows
:muro:
vedremo, sinceramente spendere 1500 o più per una VGA non mi va e se la 4080 non prometterà almeno un +50% dalla 3080, potrei anche aspettare la 4080ti.
impossibile il 50%.
Poi magari le review diranno il contrario (guardiamo le review, non cosa dice l'oste), ma la 3080 ha fatto +60% dalla 2080 con il giochino del chippone.
La 2080 aveva il chip corretto e la 80 della fascia superiore (unico motivo per cui ho fatto la follia di spendere 750€ di vga). Altrimenti gen su gen il 60% non lo vedi.
Ha il doppio vincolo, da un lato la 4080 ha il 103, dall'altro la 80 ha il 102 quindi la discrepanza è ridotta all'osso (al netto delle migliorie che sicuramente verranno introdotte)
Questa gen per me le scelte sono due:
o si va di 4090 al prezzo che costa
o si aspetta la 4080ti tra un anno
Thunder-74
20-09-2022, 14:15
impossibile il 50%.
Poi magari le review diranno il contrario (guardiamo le review, non cosa dice l'oste), ma la 3080 ha fatto +60% dalla 2080 con il giochino del chippone.
La 2080 aveva il chip corretto e la 80 della fascia superiore (unico motivo per cui ho fatto la follia di spendere 750€ di vga). Altrimenti gen su gen il 60% non lo vedi.
Ha il doppio vincolo, da un lato la 4080 ha il 103, dall'altro la 80 ha il 102 quindi la discrepanza è ridotta all'osso (al netto delle migliorie che sicuramente verranno introdotte)
Questa gen per me le scelte sono due:
o si va di 4090 al prezzo che costa
o si aspetta la 4080ti tra un anno
Vedremo Dono. Fra meno di 2 ore sapremo quanti organi sono da spiantare :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Vedremo Dono. Fra meno di 2 ore sapremo quanti organi sono da spiantare :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
eccoti servito :)
prezzi (reali) post conversione e tutto
4090 - 1599$@1979€
4080 (da 16gb) 1199$@1479€
Jeetkundo
20-09-2022, 17:14
eccoti servito :)
prezzi (reali) post conversione e tutto
4090 - 1599$@1979€
4080 (da 16gb) 1199$@1479€
2000 euro (e le custom ancora di piu') iniziano ad essere duri da sostenere. Se la 4080 andrà il doppio della 3080ti immagino che molti andranno su quella.
2000 euro (e le custom ancora di piu') iniziano ad essere duri da sostenere. Se la 4080 andrà il doppio della 3080ti immagino che molti andranno su quella.
la 4080 non se la filerà nessuno.
O spendi o non ha senso investire su una generazione che da il meglio di se con il dlss.
o prendi una 3080 (se ti basta) o una 4090. Altre schede non hanno senso
la 4080 non se la filerà nessuno.
O spendi o non ha senso investire su una generazione che da il meglio di se con il dlss.
o prendi una 3080 (se ti basta) o una 4090. Altre schede non hanno senso
non è che tutti però per forza vogliono una VGA da 450w o hanno una 3080/3080ti.
Il passaggio da una 10xx/20xx alla 4080 16GB (che più o meno costerà come una 2080ti di qualche anno fa) o alla 4080 12GB sarà comunque un salto notevole.
non è che tutti però per forza vogliono una VGA da 450w o hanno una 3080/3080ti.
Il passaggio da una 10xx/20xx alla 4080 16GB (che più o meno costerà come una 2080ti di qualche anno fa) o alla 4080 12GB sarà comunque un salto notevole.
non ci piove, ma se hai una 1080 io andrei diretto di 3080 che hai il 2x e spendi 1/3 rispetto la 4090
davide155
20-09-2022, 18:17
non ci piove, ma se hai una 1080 io andrei diretto di 3080 che hai il 2x e spendi 1/3 rispetto la 4090Sono d'accordo.
Infatti sono stato preso per il culo quando 1 mese fa consigliavo la 3090 tuf oc su amazon a 1100 euro per la gaming week.
Mi hanno dato dello scemo perché oggi avrebbero presentato le 4000 e le ampere avrebbero perso di appeal.
Invece mi sembra che le ampere alla fine ne escono proprio vincitrici invece.
Se uno ha un monitor 1080 o 2k, una ampere è più che sufficiente per il 90% dei giocatori. E si spende ancora meno se si prende usata....
Sono d'accordo.
Infatti sono stato preso per il culo quando 1 mese fa consigliavo la 3090 tuf oc su amazon a 1100 euro per la gaming week.
Mi hanno dato dello scemo perché oggi avrebbero presentato le 4000 e le ampere avrebbero perso di appeal.
Invece mi sembra che le ampere alla fine ne escono proprio vincitrici invece.
Se uno ha un monitor 1080 o 2k, una ampere è più che sufficiente per il 90% dei giocatori. E si spende ancora meno se si prende usata....Io sono uno dei pochi che concordava,la 3090 TUF a 1100€ era prendere,pochi se e ma.
Sono d'accordo.
Infatti sono stato preso per il culo quando 1 mese fa consigliavo la 3090 tuf oc su amazon a 1100 euro per la gaming week.
Mi hanno dato dello scemo perché oggi avrebbero presentato le 4000 e le ampere avrebbero perso di appeal.
Invece mi sembra che le ampere alla fine ne escono proprio vincitrici invece.
Se uno ha un monitor 1080 o 2k, una ampere è più che sufficiente per il 90% dei giocatori. E si spende ancora meno se si prende usata....
nVidia in un modo o nell'altro sorprende sempre, con Ampere tutti si aspettavano la 3080 a prezzi allineati ad una 2080ti, ma nonostante fosse un chippone ciccione l'hanno proposta a 699$, oggi che tutti si aspettavano dalla 4080 che comunque ha un chippino rispetto a quello della 3080 prezzi allineati a quelli di quest'ultima, hanno sparato cifre folli, e quello che in proporzione è meno folle è quello della 4090 :cry:
radeon_snorky
20-09-2022, 18:29
ok, ho smontato tutto e riassemblato... ho recuperato 15°C
non chiedetemi il perché, adesso rimane intorno ai 70°C e la ventola al 65-70% è sopportabilissima
purtroppo ho avviato cyberpunk ed è durato 10 secondi.
fortuna che rispetto a 20 e passa anni fa non si pianta l'intero s.o.
cosa faccio adesso? scendo con la frequenza della memoria? o abbasso il core?
davide155
20-09-2022, 18:32
Io sono uno dei pochi che concordava,la 3090 TUF a 1100€ era prendere,pochi se e ma.Infatti è andata a ruba nel giro di due giorni. nVidia in un modo o nell'altro sorprende sempre, con Ampere tutti si aspettavano la 3080 a prezzi allineati ad una 2080ti, ma nonostante fosse un chippone ciccione l'hanno proposta a 699$, oggi che tutti si aspettavano dalla 4080 che comunque ha un chippino rispetto a quello della 3080 prezzi allineati a quelli di quest'ultima, hanno sparato cifre folli, e quello che in proporzione è meno folle è quello della 4090 :cry:Beh oddio.... Meno folle... 1999 euro sul sito nvidia. Già 1500 per la 3090 mi sembravano una follia.
Ora con l'euro in declino rispetto al dollaro è un bagno di sangue....
devil_mcry
20-09-2022, 18:33
ok, ho smontato tutto e riassemblato... ho recuperato 15°C
non chiedetemi il perché, adesso rimane intorno ai 70°C e la ventola al 65-70% è sopportabilissima
purtroppo ho avviato cyberpunk ed è durato 10 secondi.
fortuna che rispetto a 20 e passa anni fa non si pianta l'intero s.o.
cosa faccio adesso? scendo con la frequenza della memoria? o abbasso il core?
cosa stai facendo?
Parlando delle 4000, paiono belle ma già 900e della mia mi sembravano troppi, qui si va oltre :|
radeon_snorky
20-09-2022, 18:38
cosa stai facendo?
Parlando delle 4000, paiono belle ma già 900e della mia mi sembravano troppi, qui si va oltre :|
sto regolando una manli 3070ti che andava a mille con le ventole e mi arrivava a 88° solo andando sul menu di avvio di Valheim.
anche regolando da afterburner non vedevo miglioramenti allora ho smontato tutto e rimontato e ora ho temperature (e ventole) molto più sopportabili.
nel frattempo su afterburner ho provato dei settaggi che mi sono tati consigliati ma ho notato ora che con cyberpunk mi crasha in 10 secondi
devil_mcry
20-09-2022, 18:44
sto regolando una manli 3070ti che andava a mille con le ventole e mi arrivava a 88° solo andando sul menu di avvio di Valheim.
anche regolando da afterburner non vedevo miglioramenti allora ho smontato tutto e rimontato e ora ho temperature (e ventole) molto più sopportabili.
nel frattempo su afterburner ho provato dei settaggi che mi sono tati consigliati ma ho notato ora che con cyberpunk mi crasha in 10 secondi
molta gente qui ha 3080 a salire, per le ram se ti hanno detto di salire di 500-700mhz penso sia ok, di solito arrivano tutte a 1000 o quasi
per la gpu devi guardare come fare le curve custom, non usare gli slider
terranux
20-09-2022, 19:05
lo mettiamo pinnato e scritto con carattere 300?
credo sia davvero il commento più utile mai letto (e ne sto bene alla larga dal seguirlo :D )
è una tortura giocare, monitori questo, quell'altro, i core, la cpu, le temp, il pl, hotspot, vram...
Prova a giocare 1h e mezza/2. Una sessione di 5 minuti non basta
ci gioco 2 ore a sera -sono a 90 ore in questo modo. la scheda è 0,925v -2000mhz. sia con fps cappati a 60 sia liberi. in più gioco anche a deathloop. i bench li passo tutti.
Infatti è andata a ruba nel giro di due giorni. Beh oddio.... Meno folle... 1999 euro sul sito nvidia. Già 1500 per la 3090 mi sembravano una follia.
Ora con l'euro in declino rispetto al dollaro è un bagno di sangue....
Si vero, ma sicuramente è meno folle di quello di una 4080 12GB che secondo queste slide, se non guardiamo Warhammer, Flight simulator, e la Next Generation, in attesa ovviamente dei bench e quindi felice di essere smentito
https://i.postimg.cc/7Yvr1GQv/nvidia-rtx-4090-247379.jpg (https://postimages.org/)
probabilmente andrà come una 3080ti o 3090, schede "vecchie" di due anni e che oggi pagheresti meno, quindi miglioramento del rapporto perf/watt, ma il perf/euro sembra rimasto invariato.
terranux
20-09-2022, 20:06
furmark non fa testo, hai un'allocazione di memoria praticamente nulla, la scheda dorme e fondi i VRM.
contano titoli ad alto consumo come CP, RDR etc. Prova lì, dubito tu sia stabile a meno che la gpu non sia proprio gold, ma è un caso unico
https://ibb.co/bNgd3PX cyberpunk
ci gioco 2 ore a sera -sono a 90 ore in questo modo. la scheda è 0,925v -2000mhz. sia con fps cappati a 60 sia liberi. in più gioco anche a deathloop. i bench li passo tutti.
Allora hai banalmente un sample super fortunato. Ci sta, ma partirei da valori più umani
terranux
20-09-2022, 20:29
Allora hai banalmente un sample super fortunato. Ci sta, ma partirei da valori più umani
ok ma così scalda e consuma meno che a default. poi le vram non le ho toccate
mikael84
20-09-2022, 20:32
Si vero, ma sicuramente è meno folle di quello di una 4080 12GB che secondo queste slide, se non guardiamo Warhammer, Flight simulator, e la Next Generation, in attesa ovviamente dei bench e quindi felice di essere smentito
probabilmente andrà come una 3080ti o 3090, schede "vecchie" di due anni e che oggi pagheresti meno, quindi miglioramento del rapporto perf/watt, ma il perf/euro sembra rimasto invariato.
RTX 4080 12 :7680 x 2600 (boost base) 40TF. (384bit)
RTX 3090ti : 10752 x 1860 (boost base) 40TF (192bit + 48mb l2)
I conti che facevo io inizialmente, ed alla fine è così.:)
Quel 2x è tutto roba RT-DLSS:)
mikael84
20-09-2022, 20:38
nVidia in un modo o nell'altro sorprende sempre, con Ampere tutti si aspettavano la 3080 a prezzi allineati ad una 2080ti, ma nonostante fosse un chippone ciccione l'hanno proposta a 699$, oggi che tutti si aspettavano dalla 4080 che comunque ha un chippino rispetto a quello della 3080 prezzi allineati a quelli di quest'ultima, hanno sparato cifre folli, e quello che in proporzione è meno folle è quello della 4090 :cry:
GA102 gli costava 80$ a die x 75 die e marginava bene con le pro, 3090. La 3080 era proprio l'ultimo scarto di produzione.
AD104 della 4080 12, gli costa sempre 80$, ma con quasi 3 volte i die ricavabili. 210 vs 75.
Furbetto JHH.:p
L'unico che gli costa di più a pari die è AD102, che da 80$ sale a 224$, con il wafer a 17k, e questo paradossalmente l'ha lasciato uguale.:)
guant4namo
20-09-2022, 20:42
Se a qualcuno dovesse interessare (non so se tutti i frequentatori del thread hanno una serie 3000), su subito molti utenti hanno già messo in vendita la serie 3000. :asd:
I prezzi lasciano il tempo che trovano visto e considerato che alcuni chiedono cifre fuori dal normale dopo 1 anno di utilizzo ahahahaha.
Cutter90
21-09-2022, 07:05
Va beh, ma se il dlss 3 dovgesse essere davvero così portentoso, non sarebbe normale che la serie 2 e 3 vengano messe da parte (solo per il 3 però eh) vista magari la mancanza di potenza hardware adeguata?
Va beh, ma se il dlss 3 dovgesse essere davvero così portentoso, non sarebbe normale che la serie 2 e 3 vengano messe da parte (solo per il 3 però eh) vista magari la mancanza di potenza hardware adeguata?
Ni, perchè tutto il beneficio non è solamente causato dal nuovo HW.
ci sono tantissime evoluzioni che sono anche SW e AI che potrebbero essere portate anche nella serie 3000, ma mi rendo conto questo renderebbe ancora meno sensate le 4000.
Per quanto mi riguarda la peggior generazione di sempre
devil_mcry
21-09-2022, 09:36
non mi ricordo più una cosa, ma da afterburner per fare da 19000 a 20000 è +500 o + 1000?
non mi ricordo più una cosa, ma da afterburner per fare da 19000 a 20000 è +500 o + 1000?
500, con 1000 porti le mem a 21gbps
craesilo
21-09-2022, 09:43
domanda, se in un xy gioco nelle impostazioni risoluzione, texture ecc...eccedete con la vram (quando la cifra diventa -rossa-) della vostra 3000, cosa succede? stuttera, fila cmq liscio?
devil_mcry
21-09-2022, 10:00
500, con 1000 porti le mem a 21gbps
ricordavo bene grazie
Pucceddu
21-09-2022, 10:25
da quello che leggo la 4080 founder sarà solo 16gb tra l'altro :muro:
devil_mcry
21-09-2022, 10:54
da quello che leggo la 4080 founder sarà solo 16gb tra l'altro :muro:
quindi la 12 sarà solo custom?
ROBHANAMICI
21-09-2022, 12:03
esatto.
StylezZz`
21-09-2022, 12:13
Questo vuol dire solo una cosa: prezzi ancora più ridicoli e tantissime persone poco informate che si lascerannno fregare dal nome 4080.
amon.akira
21-09-2022, 12:14
domanda, se in un xy gioco nelle impostazioni risoluzione, texture ecc...eccedete con la vram (quando la cifra diventa -rossa-) della vostra 3000, cosa succede? stuttera, fila cmq liscio?
esempio resident evil 2-3-7-8 segna rosso fino a 14gb+ ma è sicuramente allocata perchè sono andati sempre tutti lisci.
altri invece se non hai vram a sufficienza stuttera se non abbassi una tacca alle texture, esempio fc6
doom eternal non te le fa proprio selezionare se non hai vram.
altri magari può capitare che carica in ritardo gli assett e vedi smarmellato.
Pucceddu
21-09-2022, 12:15
dipende se sarà lo stesso chip con solo più memoria o meno.
Secondo me sono partiti con dei batch da 12 e poi han corretto in corsa a 16, le 12 andranno morendo.
Il prezzo della fe da 16 comunque è improponibile, 1500€
di 4070 non c'è traccia suppongo?
Staranno sui 900 a questo punto.
minchi@, questo mi mancava...
Sfrutto questo mio post per anticiparvi un possibile problema di attivazione del futuro DirectStorage.
Qualcuno no sa che ci sono software per la gestione dei backup dei dischi che installano dei drivers che hanno accesso al disco a livello HW.
questi driver inibiscono la possibilità di sfruttare alcune funzioni di gestione di protezione come la funzione di isolamento core (integrità della memoria) attivabile con windows , per impedire attacchi da codice dannoso nei processi e funzioni come il directstorage che utilizzeremo da gennaio 2023.
Ad esempio io uso un software di backup della Aomei e se vado nella barra game di windows trovo che i miei nvme sono inibiti per la funzione directstorage, proprio da un driver installato da questo software: ambakdrv.sys
in questo screen i miei tre nvme (c/h/I) inibiti dal driver:
PS: per accedere alla game bar , premere tasto win e G.
https://i.imgur.com/rcKd9jK.png
Aggiungo che analogo problema si può incontrare se si installano driver in bundle con gli nvme. Ad esempio ho disintallato il software di backup e riavviato. Ora per il disco C (Samsung) mi dice che il Direct Storage è inibito per il driver secnvme.sys proprietario Samsung (l'ho installato io a suo tempo). Nel mio caso poco male perchè sul C non installo giochi, ma è utile saperlo ;)
Giusto per informazione dopo l'ultimo aggiornamento di Win 11 (22H2) è stato risolto il problema del DirectStorage con il software di backup AOMEI: mi è infatti scomparso l'avviso di incompatibilità sul driver "ambakdrv.sys" ed i miei NVMe risultano ora supportati.
devil_mcry
21-09-2022, 12:44
io ho la mia 3080 12gb che gira a +40/+500 (1800 stabili+ con le ram a 20000) e vado a comandare XD
io ho la mia 3080 12gb che gira a +40/+500 (1800 stabili+ con le ram a 20000) e vado a comandare XD
Portala a 1900 almeno, non si può vedere una 3080 a 1800.
Hai un 384bit, le ram portale a 21000
devil_mcry
21-09-2022, 12:51
Portala a 1900 almeno, non si può vedere una 3080 a 1800.
Hai un 384bit, le ram portale a 21000
non ho voglia di smanettare troppo era solo per avere i numeri tutti tondi
1300/1250/1750
:D
craesilo
21-09-2022, 15:37
esempio resident evil 2-3-7-8 segna rosso fino a 14gb+ ma è sicuramente allocata perchè sono andati sempre tutti lisci.
altri invece se non hai vram a sufficienza stuttera se non abbassi una tacca alle texture, esempio fc6
doom eternal non te le fa proprio selezionare se non hai vram.
altri magari può capitare che carica in ritardo gli assett e vedi smarmellato.
ok grazie, difatti con village non mi cambiava nulla anche se sforavo
devil_mcry
21-09-2022, 15:38
Cambiato idea la tengo 1300/1200/1750, sono passato da
da 14500 pti a 15200 pti al superposition 4k
da 141.x a 147.x al heaven 1440p maxato
le ram sembrano non overcloccarsi, o meglio salgono ma il punteggio rimane uguale, è come se non fossero overcloccate.
secondo voi perché?
ciao, ieri sera ho provato l'undervolt sulla mia 3080 10GB
premetto che non ho molto tempo e quello che ho preferisco spenderlo a giocare :D :D
ho provato varie combinazioni SENZA toccare le memorie
mi son fermato a 875/1900 con un consumo che ingame si aggirava sui 250W
avevo provato anche 925/1990 ma 3dmark crashava
che ne dite? consigli? mi interessava per abbattere consumi e temperature
ciao, ieri sera ho provato l'undervolt sulla mia 3080 10GB
premetto che non ho molto tempo e quello che ho preferisco spenderlo a giocare :D :D
ho provato varie combinazioni SENZA toccare le memorie
mi son fermato a 875/1900 con un consumo che ingame si aggirava sui 250W
avevo provato anche 925/1990 ma 3dmark crashava
che ne dite? consigli? mi interessava per abbattere consumi e temperature
875/1900 è la combinazione classica. Dovrebbe andare bene con tutto ma controlla bene di essere stabile anche sui giochi "pesanti" e che fanno uso dei tensore core (per stressare la GPU al massimo).
Penso al classico Cyberpunk 2077...a seconda della res a cui giochi, potresti avere qualche instabilità.
In linea generale però dovresti essere ok.
875/1900 è la combinazione classica. Dovrebbe andare bene con tutto ma controlla bene di essere stabile anche sui giochi "pesanti" e che fanno uso dei tensore core (per stressare la GPU al massimo).
Penso al classico Cyberpunk 2077...a seconda della res a cui giochi, potresti avere qualche instabilità.
In linea generale però dovresti essere ok.
gioco a 2k
Grazie per le dritte
Predator_1982
22-09-2022, 14:41
Giusto per informazione dopo l'ultimo aggiornamento di Win 11 (22H2) è stato risolto il problema del DirectStorage con il software di backup AOMEI: mi è infatti scomparso l'avviso di incompatibilità sul driver "ambakdrv.sys" ed i miei NVMe risultano ora supportati.
Io riscontro l'incompatibilità con Acronis per il momento. Rimosso quello tutto ok, risultano supportati entrambi i dischi nvme 4.0 installati.
devil_mcry
22-09-2022, 15:59
Portala a 1900 almeno, non si può vedere una 3080 a 1800.
Hai un 384bit, le ram portale a 21000
ma le ram alzandole a te da più performance al superposition?
Thunder-74
23-09-2022, 17:48
Giusto per informazione dopo l'ultimo aggiornamento di Win 11 (22H2) è stato risolto il problema del DirectStorage con il software di backup AOMEI: mi è infatti scomparso l'avviso di incompatibilità sul driver "ambakdrv.sys" ed i miei NVMe risultano ora supportati.
ottimo , grazie per l'info ;)
albero77
23-09-2022, 18:10
https://multiplayer.it/notizie/scorn-sara-il-primo-gioco-pc-a-supportare-directstorage.html
Cutter90
24-09-2022, 08:05
https://multiplayer.it/notizie/scorn-sara-il-primo-gioco-pc-a-supportare-directstorage.html
Voglio proprio vedere le differenze
Thunder-74
24-09-2022, 08:48
Non so se ne è parlato già, ma volevo rendere noto che se avete W11 con aggiornamento alla ultima versione 22H2 e avete installato i drivers nvidia in modo completo, comprensivo del Nvidia FrameView SDK (serve a vedere le info della VGA tipo FPS ecc.), potreste avere dei cali di performaces notevoli
A questo punto è uscita la versione Geforce Experience 3.26 Beta che dovrebbe risolve.
DOWNLOAD diretto (https://us.download.nvidia.com/GFE/GFEClient/3.26.0.131/GeForce_Experience_Beta_v3.26.0.131.exe)
Qui la FONTE (https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/501432/nvidia-frameview-sdk-service-causing-massive-lag-a/) della discussione
Io consiglio di usare NVCleanstall (LINK (https://www.techpowerup.com/download/techpowerup-nvcleanstall/)) ed installare solo il driver base, il PhysX e audio HDMI se usate l'audio su TV/monitor o via Amplificatore. Il resto è tutto ciarpame compreso GFExperience
https://i.imgur.com/uTXowBX.png
Spider-Mans
24-09-2022, 10:04
non ci piove, ma se hai una 1080 io andrei diretto di 3080 che hai il 2x e spendi 1/3 rispetto la 4090
perfetto
quello che faro io
la 1080ti mi soddisfa a 4k ancora tanto
ma alcuni giochi sono pesantucci xD
prendero una 3o80 o 3080ti in saldo e/o usata...appena venderanno le 4xxx .....e aspetto le 5xxx con calma
il chippino ipersovraprezzato 4xxx se lo tengono :asd:
Predator_1982
24-09-2022, 10:11
Voglio proprio vedere le differenze
ma io non ho capito una cosa, è sufficiente che il gioco sia installato su un nvme supportato oppure va dedicato un disco nvme solo a questa funzione come "buffer" per l'I/O?
Thunder-74
24-09-2022, 10:18
ma io non ho capito una cosa, è sufficiente che il gioco sia installato su un nvme supportato oppure va dedicato un disco nvme solo a questa funzione come "buffer" per l'I/O?
credo che il titolo debba essere installato sul nvme
Ne approfitto per dirvi che Microsoft ha lanciato un'app per Windows, utile alla calibrazione del HDR. App usata su XBOX
vi riporto articolo
L'HDR sta diventando sempre più importante nei giochi, motivo per cui l'XBOX di Microsoft include la possibilità di calibrare il monitor o la TV. Sebbene l'azienda di Redmond abbia presentato ufficialmente Windows 11 2022 questa settimana, ora ha anche reso disponibile una nuova app di calibrazione HDR.
La nuova app non fa parte dell'aggiornamento annunciato questa settimana e può essere installata anche su altre versioni di Windows 11.
https://content.hwigroup.net/images/editorial/600/116273_screenshot-2022-09-23-181048.jpg
L'app contiene tre opzioni di test, con le quali puoi testare qual è il dettaglio visibile più scuro, puoi anche testare la massima luminosità del tuo schermo. I test si basano sulle raccomandazioni dell'HDR Gaming Interest Group (HGIG). Inoltre, Microsoft ha aggiunto un'opzione di impostazione per la saturazione del colore.
Puoi scaricare la calibrazione HDR di Windows gratuitamente da Windows Store
terranux
25-09-2022, 09:13
ma le ram alzandole a te da più performance al superposition?
https://www.youtube.com/watch?v=2Lk2Muzc2MU&t=233s prova questi setting
devil_mcry
25-09-2022, 09:44
https://www.youtube.com/watch?v=2Lk2Muzc2MU&t=233s prova questi setting
grazie, smanetterò
credo che il titolo debba essere installato sul nvme
Ne approfitto per dirvi che Microsoft ha lanciato un'app per Windows, utile alla calibrazione del HDR. App usata su XBOX
vi riporto articolo
L'HDR sta diventando sempre più importante nei giochi, motivo per cui l'XBOX di Microsoft include la possibilità di calibrare il monitor o la TV. Sebbene l'azienda di Redmond abbia presentato ufficialmente Windows 11 2022 questa settimana, ora ha anche reso disponibile una nuova app di calibrazione HDR.
La nuova app non fa parte dell'aggiornamento annunciato questa settimana e può essere installata anche su altre versioni di Windows 11.
https://content.hwigroup.net/images/editorial/600/116273_screenshot-2022-09-23-181048.jpg
L'app contiene tre opzioni di test, con le quali puoi testare qual è il dettaglio visibile più scuro, puoi anche testare la massima luminosità del tuo schermo. I test si basano sulle raccomandazioni dell'HDR Gaming Interest Group (HGIG). Inoltre, Microsoft ha aggiunto un'opzione di impostazione per la saturazione del colore.
Puoi scaricare la calibrazione HDR di Windows gratuitamente da Windows Store
questo è molto interessante
EDIT provato
il problema è sempre il dynamic tone mapping imho, già su console le tv samsung come la mia qn90b sono tosto da calibrare su windows è pure peggio :D
https://www.youtube.com/watch?v=2Lk2Muzc2MU&t=233s prova questi setting
1980 con 900mV sono irraggiungibili da qualunque 3080, a meno di non beccare un chip gold (come il tuo) e nel caso ha testato solo un bench, che lascia il tempo che trova.
PS cyberpunk in game e non bench 300w li supera anche in ambienti chiusi, a me con DLSS (e quindi con consumi minori) sta tranquillo a 350W
@devil, io con le memorie a 21000 qualche vantaggio ce l'ho, le memorie in game, sopratutto con dettagli alti danno a differenza di quanto si pensa (la differenza tra la 3080 12gb e 10gb è di fatto nella banda, non nei cuda core)
devil_mcry
25-09-2022, 11:25
1980 con 900mV sono irraggiungibili da qualunque 3080, a meno di non beccare un chip gold (come il tuo) e nel caso ha testato solo un bench, che lascia il tempo che trova.
PS cyberpunk in game e non bench 300w li supera anche in ambienti chiusi, a me con DLSS (e quindi con consumi minori) sta tranquillo a 350W
@devil, io con le memorie a 21000 qualche vantaggio ce l'ho, le memorie in game, sopratutto con dettagli alti danno a differenza di quanto si pensa (la differenza tra la 3080 12gb e 10gb è di fatto nella banda, non nei cuda core)
ma al superposition per dire ti era cambiato qualcosa?
ma al superposition per dire ti era cambiato qualcosa?
1950/21000
L'avevo fatto poco tempo fa, ora ho la scheda a 1965 ma non cambia granchè (ovviamente, sono 15MHz)
https://i.postimg.cc/hPCdtY23/1965-950.png (https://postimages.org/)
devil_mcry
25-09-2022, 11:39
dovrei provare 1080 extreme, di solito lo faccio in 4k
perché sono rimasto stranito che ne il superposition 4k ne l'heaven 1440p maxato cambiavano, ma proprio di nulla ma le ram effettivamente erano a 20000 boh
dovrei provare 1080 extreme, di solito lo faccio in 4k
perché sono rimasto stranito che ne il superposition 4k ne l'heaven 1440p maxato cambiavano, ma proprio di nulla ma le ram effettivamente erano a 20000 boh
prova a 1080p extreme, quel 4k è fake
non è che sei bloccato dal pl?
devil_mcry
25-09-2022, 12:30
prova a 1080p extreme, quel 4k è fake
non è che sei bloccato dal pl?
però non dovrebbe cambiare qualcosa? nel senso, metti che sono pl limit possibile che si bilancia così bene da fare le stesse performance? comunque devo provare a smanettarci un po' meglio
Thunder-74
25-09-2022, 13:30
Superposition a 1080 extreme non usa tutto il pl extra impostato su Afterburner. Lo fa se si utilizza il bench 8k, in 4k lo usa parzialmente.
perfetto
quello che faro io
la 1080ti mi soddisfa a 4k ancora tanto
ma alcuni giochi sono pesantucci xD
prendero una 3o80 o 3080ti in saldo e/o usata...appena venderanno le 4xxx .....e aspetto le 5xxx con calma
il chippino ipersovraprezzato 4xxx se lo tengono :asd:
Scelta saggia ma opterei per l'usato o prezzo di saldo inferiore all'MRSP, perché pagarle dopo 2 anni quanto era il loro prezzo vero al lancio, e non quello drogato da mining e scalper, equivale a fare il gioco di Jen-Hsun Huang che potrebbe avere pompato i prezzi delle x80 per svuotare i magazzini dalle ampere.
radeon_snorky
25-09-2022, 15:31
scusate la domanda... ma afterburner come si usa? cioè l'ho settato e ok... ma una volta sistemato leggo che pure quando sto scrivendo su word la gpu mi va a 1900mhz ecc... (con relative alte temperature)
mentre se setto a default la gpu regola dinamicamente la velocità (e ovviamente senza giochi sono a 35-37 gradi)
sbaglio qualcosa?
terranux
25-09-2022, 18:59
1980 con 900mV sono irraggiungibili da qualunque 3080, a meno di non beccare un chip gold (come il tuo) e nel caso ha testato solo un bench, che lascia il tempo che trova.
PS cyberpunk in game e non bench 300w li supera anche in ambienti chiusi, a me con DLSS (e quindi con consumi minori) sta tranquillo a 350W
@devil, io con le memorie a 21000 qualche vantaggio ce l'ho, le memorie in game, sopratutto con dettagli alti danno a differenza di quanto si pensa (la differenza tra la 3080 12gb e 10gb è di fatto nella banda, non nei cuda core)
ok ma può prendere uno spunto. cmq solitamente le 12gb salgono di più delle 10
ok ma può prendere uno spunto. cmq solitamente le 12gb salgono di più delle 10
Ni, un conto è una 3090, dove i cuda schizzano, non sono i 200 cuda in più a cambiare molto in termini di ricerca della purezza
Superposition a 1080 extreme non usa tutto il pl extra impostato su Afterburner. Lo fa se si utilizza il bench 8k, in 4k lo usa parzialmente.
Si Thunder, a me la 3080 va in PL nelle scene 14 e 16 se non vado errato. Scenario che non mi si è mai manifestato in gaming, ma SP arriva a 370W (369 da gpuz)
Eddie666
26-09-2022, 09:47
domanda: qualcuno di voi ha mai provato a flashare il BIOS di una 3080 NON lhr su una 3080 lhr? fermo restando che del mining non mi interessa nulla, mi interesserebbe invece sapere se la scheda video funzioni o meno.
grazie
devil_mcry
26-09-2022, 12:43
domanda: qualcuno di voi ha mai provato a flashare il BIOS di una 3080 NON lhr su una 3080 lhr? fermo restando che del mining non mi interessa nulla, mi interesserebbe invece sapere se la scheda video funzioni o meno.
grazie
la bricki lo hanno fatto su reddit tanto tempo fa
Eddie666
26-09-2022, 13:00
la bricki lo hanno fatto su reddit tanto tempo fa
ecco, avevo cercato a suo tempo ma non avevo trovato nulla. grazie
Thunder-74
27-09-2022, 14:00
NVIDIA GeForce Graphics Drivers 517.48 WHQL
LINK (https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/)
Gaming
Game Ready for Overwatch 2
NVIDIA DLSS in Microsoft Flight Simulator
Fixed
- [Advanced Optimus] Brightness setting is not getting applied correctly on certain Lenovo notebooks in dedicated GPU mode [3795453]
- [Windows 10][Advanced Optimus]: On certain notebook configurations, "NVIDIA GPU only" option does not persist on system reboot [3794921]
- [Adobe Illustrator] Using Reduce Noise with Ray Tracing appears pixelated [3709309]
- [Windows 11] Chaos Vantage fails to start when NVLink is enabled [3652930]
- [Adobe Photoshop] Resolves random crashes in DirectML.dll [3749935]
- [Fusion 360] Addresses performance issues when using variable refresh rate monitors [3724711]
- On rare occasions, video playback in browser may result in bugcheck code: 0x116 [3508109]
- [Jurassic World Evolution 2] Game may display shadow flickering [3682201]
- Native resolution is not available on the Samsung U28R55/ ASUS VG249Q1A monitors [3703073] [3768670]
- [Windows 11] Some UWP apps may display lag when G-SYNC is set to "Enable G-SYNC for windowed and full screen mode" and "Vertical sync" is changed from the default value [3753141]
- Resolves incorrect wording for NVIDIA Control Panel -> Manage 3D Settings -> Shader Cache Size in German language [3766571]
- External displays connected to certain Razer notebooks via USB-C/Thunderbolt docks/dongles are not detected [3690673]
- [Reallusion Hub] App will crash when launched on PC using a CPU with 32+ logical processors [3738397]
Known Issues
- Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]
- Videos played back in Microsoft Edge may appear green if NVIDIA Image Scaling is enabled upon resuming from hibernate or booting with fastboot. [3624218]
- [DirectX 12] Shadowplay recordings may appear over exposed when Use HDR is enabled from the Windows display settings. [200742937]
- Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
- [RTX 30 series] Lower performance in Minecraft Java Edition. [3702953]
- [Forza Horizon 5] Rainbow like artifacts in game after driver update. [3685123]
- [Marvel Spider-Man Remastered] Cutscene edges may appear blurry when DLSS is enabled on an ultra-wide monitor [3734989]
- Dell XPS 9560 may crash and reboot when using desktop applications [3737715]
Cutter90
28-09-2022, 17:26
Infatti è andata a ruba nel giro di due giorni. Beh oddio.... Meno folle... 1999 euro sul sito nvidia. Già 1500 per la 3090 mi sembravano una follia.
Ora con l'euro in declino rispetto al dollaro è un bagno di sangue....
Quoto questo ma in realtà volevo chiederti altro :)
Ma se usassi il dldsr in combinazione con il dlss.... parliamo di acc ad esempio.
Nel senso, in 4k attivo il dldsr al 2.25 da pannello. Poi ingame attivo il dlss in bilanciato come faccio sempre.
Ora non so se sono io ma vedo più nitido che in dlss bilanciato dal 4k normale... o sbaglio?
E, sempre se non sbaglio, mi pare che abbia addirittura guadagnato perfromace. Possibile?
Ovviamente chiunque può rispondere
Quoto questo ma in realtà volevo chiederti altro :)
Ma se usassi il dldsr in combinazione con il dlss.... parliamo di acc ad esempio.
Nel senso, in 4k attivo il dldsr al 2.25 da pannello. Poi ingame attivo il dlss in bilanciato come faccio sempre.
Ora non so se sono io ma vedo più nitido che in dlss bilanciato dal 4k normale... o sbaglio?
E, sempre se non sbaglio, mi pare che abbia addirittura guadagnato perfromace. Possibile?
Ovviamente chiunque può rispondereDa quale risoluzione parti ? Non si capisce bene.
Col DLDSR sommato al DLSS puoi migliorare la resa originaria renderizzando più o meno alla stessa res.
In pratica sfrutti l'efficienza del DLSS per migliorare solo la resa.
In particolare quando il DLSS sostituisce il TAA, quindi quasi sempre.
Si può fare anche con le AMD e FSR-2.0 (tramite mod va in molti giochi col DLSS). Parti col downsampling tramite VSR e attivi il FSR-2.
Di solito il risultato non è al livello del mix Nvidia, visto che entrambe le feature partono meglio, però con un po' di CAS si avvicina molto. Ho notato che il VSR AMD è migliorato.
Per le prestazioni, non è possibile che moltiplicando la risoluzione di rendering di partenza tu possa migliorarle.
Per altro, pure essendo il downsampling migliore, il DLDSR aggiunge anche un po' di peso al DSR normale (2% circa).
Esempio partendo da 1080p: Con 2.25x arrivi a 1620p interni ai quali dovrai aggiungere qualcosa. Come fai ad andare più forte?
Comunque, da varie prove che ho fatto, secondo me il mix va molto bene usando i preset qualità, se scendi rischi di vanificare il metodo, almeno se lo vuoi usare solo per la qualità, ma diversamente non avrebbe senso partire col donsampling...
Cutter90
28-09-2022, 18:46
Da quale risoluzione parti ? Non si capisce bene.
Col DLDSR sommato al DLSS puoi migliorare la resa originaria renderizzando più o meno alla stessa res.
In pratica sfrutti l'efficienza del DLSS per migliorare solo la resa.
In particolare quando il DLSS sostituisce il TAA, quindi quasi sempre.
Si può fare anche con le AMD e FSR-2.0 (tramite mod va in molti giochi col DLSS). Parti col downsampling tramite VSR e attivi il FSR-2.
Di solito il risultato non è al livello del mix Nvidia, visto che entrambe le feature partono meglio, però con un po' di CAS si avvicina molto. Ho notato che il VSR AMD è migliorato.
Per le prestazioni, non è possibile che moltiplicando la risoluzione di rendering di partenza tu possa migliorarle.
Per altro, pure essendo il downsampling migliore, il DLDSR aggiunge anche un po' di peso al DSR normale (2% circa).
Esempio partendo da 1080p: Con 2.25x arrivi a 1620p interni ai quali dovrai aggiungere qualcosa. Come fai ad andare più forte?
Comunque, da varie prove che ho fatto, secondo me il mix va molto bene usando i preset qualità, se scendi rischi di vanificare il metodo, almeno se lo vuoi usare solo per la qualità, ma diversamente non avrebbe senso partire col donsampling...
Partenza dal 4k, quindi 3840×2160. Dopo mangiato faccio dei test.
Con dldsr 2.25 arrivo a 6144x3240. Poi ingame applico il dlss in bilanciato e quello che noto è che non solo la definizione è migliore, ma , mi pare è lo testo dopo anche le performance.
davide155
28-09-2022, 22:20
Quoto questo ma in realtà volevo chiederti altro :)
Ma se usassi il dldsr in combinazione con il dlss.... parliamo di acc ad esempio.
Nel senso, in 4k attivo il dldsr al 2.25 da pannello. Poi ingame attivo il dlss in bilanciato come faccio sempre.
Ora non so se sono io ma vedo più nitido che in dlss bilanciato dal 4k normale... o sbaglio?
E, sempre se non sbaglio, mi pare che abbia addirittura guadagnato perfromace. Possibile?
Ovviamente chiunque può rispondereEccomi!
Non sbagli affatto.
Il dldsr 4k upscalato teoricamente su carta promette una qualità grafica perfino più definita del 4k nativo, con prestazioni migliori del 4k nativo.
Se poi ci aggiungi come faccio io il dlss, che è un altra interpolazione per migliorare l'immagine, hai un guadagno visivo doppio ed un guadagno doppio (in senso figurato) anche delle prestazioni.
Io da quando è uscito il dldsr lo uso fisso, e su alcuni giochi assieme al dlss ho un salto qualitativo notevole.
In cyberpunk ad esempio l'accoppiata non vince, meglio la risoluzione nativa con dlss e basta.
Mentre in days gone e god of war, che sto giocando adesso, la resa visiva è sbalorditiva.
Entrambi si appoggiano ai tensor core e si affidano al deep learning, però lo fanno in maniera diversa. Uno ti upscala la risoluzione con la metà delle risorse che impiegheresti per renderizzare tale risoluzione nativa. L'altro è una renderizzazione in downsampling ed upsampling della stessa immagine in situazioni di pipeline diverse.
Solo per queste due features a nvidia dovrebbero dargli il premio oscar.
Poi però se ne approfittano e tirano fuori la 4090 a 2200euro. E cagano sopra al fiore che hanno creato....
amon.akira
28-09-2022, 22:44
2160p + dlss quality 66% nativa= 2160p*0.66%=1440p
dldsr 2.25x + dlss quality = 3240p*0.66%=2160p
dldsr 1.78x + dlss quality = 2880p*0.66%=1900p
dovrebbe essere molto piu pesante
io lo provai solo su gow con la 3090 ma non riuscivo a mantenere i 4k 60 (però forse ho provato solo il dldsr senza dlss ^^')
davide155
29-09-2022, 00:34
2160p + dlss quality 66% nativa= 2160p*0.66%=1440p
dldsr 2.25x + dlss quality = 3240p*0.66%=2160p
dldsr 1.78x + dlss quality = 2880p*0.66%=1900p
dovrebbe essere molto piu pesante
io lo provai solo su gow con la 3090 ma non riuscivo a mantenere i 4k 60 (però forse ho provato solo il dldsr senza dlss ^^')
Amon dimentichi che il dldsr sfrutta i tensor core per alleggerire l'upscaling. Da nvidia però non è dato sapere un numero certo di quanto effettivamente allevia i cuda.
Dai video che avevano mostrato sembrava che facesse un 20% in più di fps con miglior dettaglio usando il 2.25x.
amon.akira
29-09-2022, 00:55
Amon dimentichi che il dldsr sfrutta i tensor core per alleggerire l'upscaling. Da nvidia però non è dato sapere un numero certo di quanto effettivamente allevia i cuda.
Dai video che avevano mostrato sembrava che facesse un 20% in più di fps con miglior dettaglio usando il 2.25x.
coincidenza avevo gow installato ed ho provato però ora ho la 3060ti se spingo troppo esplode XD
gow non ha fullscreen, solo borderless quindi tocca settarla nel windows e lui te la vede, ho provato la 2880p 1.78x e in game dlss quality, gow tra l altro ti segna anche la risoluzione di rendering e cosi va a 1920, quindi ci troviamo 2880*0.66 sono appunto 1900
non ho fatto screen ma ho visto che nonostante fosse 1900 mi sa che fa meno fps rispetto a 2160p (4k no dlss), quindi sicuramente in questi passaggi consuma piu risorse.
se ho tempo poi faccio 2screen al volo
Kostanz77
29-09-2022, 00:57
coincidenza avevo gow installato ed ho provato però ora ho la 3060ti se spingo troppo esplode XD
Già venduto la 3090?😀
Inviato dal mio iPhone utilizzando Tapatalk Pro
amon.akira
29-09-2022, 01:08
Già venduto la 3090?😀
Inviato dal mio iPhone utilizzando Tapatalk Pro
a luglio, d estate il pc mi respinge, ho recuperato 2mesi :P
davide155
29-09-2022, 01:43
Un paio di immagini fatte al volo con dldsr 2.25x e dlss su qualità. Risoluzione di partenza 2560x1440, poi upscalata con dldsr a 3840x2160 e riportata in dlss a 2560x1440.
Ditemi voi se non è uno spettacolo
https://i.ibb.co/r263DLQ/Screen-Shot-2022-9-28-11-56-1.png (https://ibb.co/8g5b1Rm)
https://i.ibb.co/9WzHbHn/Screen-Shot-2022-9-29-0-26-32.png (https://ibb.co/5LthrhT)
Cutter90
29-09-2022, 07:45
Un paio di immagini fatte al volo con dldsr 2.25x e dlss su qualità. Risoluzione di partenza 2560x1440, poi upscalata con dldsr a 3840x2160 e riportata in dlss a 2560x1440.
Ditemi voi se non è uno spettacolo
https://i.ibb.co/r263DLQ/Screen-Shot-2022-9-28-11-56-1.png (https://ibb.co/8g5b1Rm)
https://i.ibb.co/9WzHbHn/Screen-Shot-2022-9-29-0-26-32.png (https://ibb.co/5LthrhT)
Mamma mia che roba. Però mi chiedo una cosa: se lo attivo da pannello nvidia il dldsr lo attivo in tutti i giochi? Nel senso, è possibile che qualche gioco non sia supportato e non funzioni?
C'è l'opzione per regolarlo in ogni gioco?
No perchè sta cosa che, ahimè, ho scoperto è clamorosa se confermata. Devo testare un gioco pesante per vedere se la combo dldsr+dlss migliora davvero la qualità e nello stesso tempo anche le performance del solo dlss.
Un paio di immagini fatte al volo con dldsr 2.25x e dlss su qualità. Risoluzione di partenza 2560x1440, poi upscalata con dldsr a 3840x2160 e riportata in dlss a 2560x1440.
Ditemi voi se non è uno spettacolo
https://i.ibb.co/r263DLQ/Screen-Shot-2022-9-28-11-56-1.png (https://ibb.co/8g5b1Rm)
https://i.ibb.co/9WzHbHn/Screen-Shot-2022-9-29-0-26-32.png (https://ibb.co/5LthrhT)
Anch’io uso la stessa tecnica a 1.78x però per aumentare un po’ i frame e con DLSS qualità faccio 90fps e oltre partendo da una nativa di 1440p.
Un paio di immagini fatte al volo con dldsr 2.25x e dlss su qualità. Risoluzione di partenza 2560x1440, poi upscalata con dldsr a 3840x2160 e riportata in dlss a 2560x1440.
Ditemi voi se non è uno spettacolo
https://i.ibb.co/r263DLQ/Screen-Shot-2022-9-28-11-56-1.png (https://ibb.co/8g5b1Rm)
https://i.ibb.co/9WzHbHn/Screen-Shot-2022-9-29-0-26-32.png (https://ibb.co/5LthrhT)
le immagini sono uno spettacolo, si, ma quanto cambiano rispetto il solo DLSS quality a 1440?
non mi sono mai fidato troppo del dldsr.
Mamma mia che roba. Però mi chiedo una cosa: se lo attivo da pannello nvidia il dldsr lo attivo in tutti i giochi? Nel senso, è possibile che qualche gioco non sia supportato e non funzioni?
C'è l'opzione per regolarlo in ogni gioco?
No perchè sta cosa che, ahimè, ho scoperto è clamorosa se confermata. Devo testare un gioco pesante per vedere se la combo dldsr+dlss migliora davvero la qualità e nello stesso tempo anche le performance del solo dlss.
Se non è disponibile in game la risoluzione “maggiorata “ la devi forzare dalla risoluzione desktop dal pannello di controllo Nvidia dalla sezione risoluzione aggiuntiva.
Amon dimentichi che il dldsr sfrutta i tensor core per alleggerire l'upscaling. Da nvidia però non è dato sapere un numero certo di quanto effettivamente allevia i cuda.
Dai video che avevano mostrato sembrava che facesse un 20% in più di fps con miglior dettaglio usando il 2.25x.Non hai capito come funziona.
L'IA interviene nel resampling, e non nell'aumento della risoluzione di rendering, cosa che avrebbe ben poco senso.
Non solo... Come dicevo, il ridimensionamento in basso (così si capisce meglio cosa fa) tramite AI aggiunge pure un po' di peso.
Anche il DLSS non è gratis se si pensa da dove parte, in qualche modo il processo inpegna anche il resto.
In pratica, se da 1080p vai verso i 1440p col DLSS Quality, il peso sarà superiore al rendering nativo, nonostante la partenza del DLSS sia inferiore a 1080p.
Probabilmente fai confusione con le dichiarazioni Nvidia, che dicevano che DLDSR 2.25x rendeva più o meno come il DSR 4x.
Credo si capisca l'assurdità di un aumentare per poi diminuire tramite AI. Ci perderesti sempre.
Nello scalare senza AI si usano filtri classici, il lavoro più preciso è determinante, considerando i subpixel e l'adiacente.
Comunque ripeto che il risultato dal DLDSR + DLSS è ottimo, se non si scende col setting. Io preferivo usarlo a 1.78x perché era più nitido. 2.25x è più smussato.
Dopo per la nitidezza si può lavorare sul parametro dell'uniformità.
Da quello che ho notato, direi di aumentare l'uniformità di almeno il 10% in confronto quella del DSR normale, se no per me rischia l'oversharpening e smussa meno.
Mamma mia che roba. Però mi chiedo una cosa: se lo attivo da pannello nvidia il dldsr lo attivo in tutti i giochi? Nel senso, è possibile che qualche gioco non sia supportato e non funzioni?
C'è l'opzione per regolarlo in ogni gioco?
No perchè sta cosa che, ahimè, ho scoperto è clamorosa se confermata. Devo testare un gioco pesante per vedere se la combo dldsr+dlss migliora davvero la qualità e nello stesso tempo anche le performance del solo dlss.Mai provato il downsampling da GPU? (prima c'era altro)
Attivi le spunte dal pannello Nvidia e ti ritrovi le risoluzioni maggiori tra le opzioni.
Se il gioco non ti permette di andare sopra la risoluzione di partenza, dovrai cambiarla prima dell'avvio.
Se sc@zza con lo schermo intero, setti finestra senza bordi nel gioco e lo avvii sempre dopo aver cambiato...
Per l'occorrenza potete switchare tra le risoluzioni con un programmino tipo questo:
https://www.nirsoft.net/utils/nircmd.html
Fate 3 collegamenti, 2 con le risoluzioni sopra e uno per tornare a default.
Il dowsampling aumenta il peso, te lo ripeto. Ma tanto lo scoprirai da solo...
Predator_1982
29-09-2022, 08:16
le immagini sono uno spettacolo, si, ma quanto cambiano rispetto il solo DLSS quality a 1440?
non mi sono mai fidato troppo del dldsr.
ho provato anche io l'opzione, su alcuni giochi effettivamente la resa finale è migliore. Non male.
L'ho testato un po' su Metro Exodus, con la mia configurazione attivare il DLDSR 2.25x fa calare gli fps mediamente di un 15
Piuttosto una stranezza: ma dopo aver settato la risoluzione di un gioco a quella massima prevista dal settaggio DSR, anche a voi si sballa la posizione delle icone sul desktop?
Lo notavo ieri, ogni volta devo risistemare quelle a destra.
bagnino89
29-09-2022, 09:06
Un paio di immagini fatte al volo con dldsr 2.25x e dlss su qualità. Risoluzione di partenza 2560x1440, poi upscalata con dldsr a 3840x2160 e riportata in dlss a 2560x1440.
Ditemi voi se non è uno spettacolo
Ma rispetto alla nativa 2560x1440, qual è il guadagno (se c'è) di FPS? Dovrei provare anche io...
davide155
29-09-2022, 09:11
Mamma mia che roba. Però mi chiedo una cosa: se lo attivo da pannello nvidia il dldsr lo attivo in tutti i giochi? Nel senso, è possibile che qualche gioco non sia supportato e non funzioni?
C'è l'opzione per regolarlo in ogni gioco?
No perchè sta cosa che, ahimè, ho scoperto è clamorosa se confermata. Devo testare un gioco pesante per vedere se la combo dldsr+dlss migliora davvero la qualità e nello stesso tempo anche le performance del solo dlss.Tutti possono usufruire del dldsr.
Se una volta selezionate le risoluzioni DL da pannello nvidia non le vedi nel gioco, come in gow. Allora le forzi dal pannello della risoluzione, perché ti saranno apparse sicuramente dopo averle attivate dal menù del dldsr. le immagini sono uno spettacolo, si, ma quanto cambiano rispetto il solo DLSS quality a 1440?
non mi sono mai fidato troppo del dldsr.Abbastanza da rendertene conto. Ovviamente non avrai mai gli stessi fps del solo dlss. Ma se si ha una gpu potente vale la pena attivarlo. Non hai capito come funziona.
L'IA interviene nel resampling, e non nell'aumento della risoluzione di rendering, cosa che avrebbe ben poco senso.
Non solo... Come dicevo, il ridimensionamento in basso (così si capisce meglio cosa fa) tramite AI aggiunge pure un po' di peso.
Anche il DLSS non è gratis se si pensa da dove parte, in qualche modo il processo inpegna anche il resto.
In pratica, se da 1080p vai verso i 1440p col DLSS Quality, il peso sarà superiore al rendering nativo, nonostante la partenza del DLSS sia inferiore a 1080p.
Probabilmente fai confusione con le dichiarazioni Nvidia, che dicevano che DLDSR 2.25x rendeva più o meno come il DSR 4x.
Credo si capisca l'assurdità di un aumentare per poi diminuire tramite AI. Ci perderesti sempre.
Nello scalare senza AI si usano filtri classici, il lavoro più preciso è determinante, considerando i subpixel e l'adiacente.
Comunque ripeto che il risultato dal DLDSR + DLSS è ottimo, se non si scende col setting. Io preferivo usarlo a 1.78x perché era più nitido. 2.25x è più smussato.
Dopo per la nitidezza si può lavorare sul parametro dell'uniformità.
Da quello che ho notato, direi di aumentare l'uniformità di almeno il 10% in confronto quella del DSR normale, se no per me rischia l'oversharpening e smussa meno.
Mai provato il downsampling da GPU? (prima c'era altro)
Attivi le spunte dal pannello Nvidia e ti ritrovi le risoluzioni maggiori tra le opzioni.
Se il gioco non ti permette di andare sopra la risoluzione di partenza, dovrai cambiarla prima dell'avvio.
Se sc@zza con lo schermo intero, setti finestra senza bordi nel gioco e lo avvii sempre dopo aver cambiato...
Per l'occorrenza potete switchare tra le risoluzioni con un programmino tipo questo:
https://www.nirsoft.net/utils/nircmd.html
Fate 3 collegamenti, 2 con le risoluzioni sopra e uno per tornare a default.
Il dowsampling aumenta il peso, te lo ripeto. Ma tanto lo scoprirai da solo...Come detto sono due tecniche che funzionano al contrario l'una dall'altra.
Col dlss invece di eseguire il rendering dell’immagine iniziale in una risoluzione maggiore, la renderizza a risoluzione minore, quindi utilizza l’IA per dedurre come sarebbe l’immagine a una risoluzione più elevata.
Il dldsr fa lo stesso lavoro del dsr dove il gioco viene renderizzato a una risoluzione maggiore, più dettagliata, e poi viene "downscalato" a una risoluzione inferiore, aggiungendo la componente dell'intelligenza artificiale (deep learning) che richiede meno pixel di input, rendendo così la qualità finale del DLDSR 2.25X comparabile a quella del DSR 4X, ma con prestazioni maggiori. ho provato anche io l'opzione, su alcuni giochi effettivamente la resa finale è migliore. Non male.
L'ho testato un po' su Metro Exodus, con la mia configurazione attivare il DLDSR 2.25x fa calare gli fps mediamente di un 15
Piuttosto una stranezza: ma dopo aver settato la risoluzione di un gioco a quella massima prevista dal settaggio DSR, anche a voi si sballa la posizione delle icone sul desktop?
Lo notavo ieri, ogni volta devo risistemare quelle a destra.A me non sballa nulla. Ma tu fai riferimento al dsr.
Qua parliamo di dldsr.
davide155
29-09-2022, 09:15
Ma rispetto alla nativa 2560x1440, qual è il guadagno (se c'è) di FPS? Dovrei provare anche io...Diciamo che il guadagno c'è rispetto alla controparte fsr.
Se tu aumentassi la risoluzione tramite fsr a 4x, otterresti la stessa qualità del 2,75x dldsr con prestazioni ovviamente maggiori a favore del dldsr. Appunto sfruttando la rete neurale con meno "risoluzione" si riesce ad avere lo stesso guadagno visivo.
Andy1111
29-09-2022, 13:03
Correggetemi se sbaglio non ho una nvidia e sto cercando di capire dldsr
Allora hai esempio un monitor 1440p, usi dsr portandolo in 4k poi usi il dlss riportando il tutto a 1440p
E' questo il succo del discorso ?
Perchè se è tutto questo, è la stessa cosa che si può fare con AMD usando VSR e poi usare FSR :D
bagnino89
29-09-2022, 13:06
Correggetemi se sbaglio non ho una nvidia e sto cercando di capire dldsr
Allora hai esempio un monitor 1440p, usi dsr portandolo in 4k poi usi il dlss riportando il tutto a 1440p
E' questo il succo del discorso ?
Perchè se è tutto questo, è la stessa cosa che si può fare con AMD usando VSR e poi usare FSR :D
Sì, però il DLDSR usa i tensor core, e quindi è più efficiente del normale DSR.
Andy1111
29-09-2022, 13:16
Sì, però il DLDSR usa i tensor core, e quindi è più efficiente del normale DSR.
I tensor core sono le BVH di AMD
Sapete che la mod di FSR 2.0 riesce a usare il dlss e anche il dlaa senza problemi si ?
https://youtu.be/RhCIFWC1HiE
amon.akira
29-09-2022, 14:15
Correggetemi se sbaglio non ho una nvidia e sto cercando di capire dldsr
Allora hai esempio un monitor 1440p, usi dsr portandolo in 4k poi usi il dlss riportando il tutto a 1440p
E' questo il succo del discorso ?
Perchè se è tutto questo, è la stessa cosa che si può fare con AMD usando VSR e poi usare FSR :D
si esatto solo che dovresti avere un vsr che a 2.25x sia come il 4x senza la pesantezza del 4x
e poi dovresti avere l fsr che sia come il dlss in qualità
I tensor core sono le BVH di AMD
Sapete che la mod di FSR 2.0 riesce a usare il dlss e anche il dlaa senza problemi si ?
https://youtu.be/RhCIFWC1HiE
in rdna3 amd dovrebbe implementare in hw l equivalente tensor di nvidia e intel, mikael se legge magari ce lo spiega meglio :P
Cutter90
29-09-2022, 14:17
I tensor core sono le BVH di AMD
Sapete che la mod di FSR 2.0 riesce a usare il dlss e anche il dlaa senza problemi si ?
https://youtu.be/RhCIFWC1HiE
Ehmmm no. Il dlss e dldsr sono superiore alla controparte amd proprio perchè hanno core dedicati e il deep learning con IA, cosa che amd non ha assolutamente.
I risultati non sono i medesimi
Ragazzi ma non trovo il DLDSR era in Impostazioni 3D -> Gestisci Impostazioni 3D -> Impostazioni globali giusto?
non c'è più...:stordita:
Sono quà seduto che volevo fare due prove con Cyberpunk, ma sono diventato orbo io?
https://i.imgur.com/gck94xs.png
davide155
29-09-2022, 19:22
Mmmmm strano, dovrebbe esserci la voce dsr sotto la voce cuda.
Prova a vedere in geforce experience se devi abilitarlo da li.
Così a memoria non ricordo. Sono lontano dal pc.
amon.akira
29-09-2022, 19:28
si sta sotto cuda
forse hai res personalizzate? non puoi avere res pers. e dsr insieme...anche se dovresti avere cmq il menu
Come detto sono due tecniche che funzionano al contrario l'una dall'altra.Non sarebbe proprio il contrario, e dai post precedendi sembrava fosse il DS a gratis.
Va detto bene che selezionando quella risoluzione si ha quel peso più un po' di overhead del meccanismo.
Nvidia stessa ha giocato sulla cosa, postando un confronto CPU limited su Prey, proprio per dare l'impressione suddetta.
Di sicuro quel piccolo overhead vale la candela, eh, sia chiaro...
Sì, però il DLDSR usa i tensor core, e quindi è più efficiente del normale DSR.Il risultato è più pulito, efficiente se si considera la qualità della resa in rapporto al moltiplicatore.
Comunque in smussatura non è equivalente a x4, sembra che Nvidia abbia giocato troppo col parametro dell'uniformità.
Ehmmm no. Il dlss e dldsr sono superiore alla controparte amd proprio perchè hanno core dedicati e il deep learning con IA, cosa che amd non ha assolutamente.
I risultati non sono i medesimiIl mix Nvidia è più pulito, ma come dicevo col CAS (dal pannello o da ReShade) si avvicina più di quanto credessi.
Con Nvidia basta giocare col parametro dell'uniformità, che più o meno sarebbe la stessa cosa.
La differenza più grossa credo sia che il DLDSR si mangia meglio i classici artefatti del TAA, poi sommato al DLSS l'immagine è più stabile.
Va anche detto che il downsampling di AMD partiva meglio del DSR spiccio Nvidia.
Ale55andr0
29-09-2022, 19:53
Ciao, ho visto che su Amaz. c'è la ASUS TUF RTX 3080 OC con 12 GB di memoria. Pensavo che le 12Gb non le facessero più.
Sta a 953 euro, pensavo di prenderla che dite?
Assolutamente fuori prezzo, lasciagliela li'
Ragazzi ma non trovo il DLDSR era in Impostazioni 3D -> Gestisci Impostazioni 3D -> Impostazioni globali giusto?
non c'è più...:stordita:
Sono quà seduto che volevo fare due prove con Cyberpunk, ma sono diventato orbo io?
Impostazioni 3D - DSR fattori.. scorri
Impostazioni 3D - DSR fattori.. scorri
boh ho tolto e rimesso i driver con DDU in mod provvisoria ma nulla la voce non c'è più. Ora googolo un po..
Scoperto l'arcano, se il monitor è settato a 160Hz il DSR non compare, se lo setto a 144 Hz si. Pare sia un problema diffuso sui pannelli molto veloci in 4K.
ho provato in Cyperpunk il giochetto DLDSR +DLSS e si vede da dio, ma passo da 60/90 fps a 20/30 è inaccettabile.
Tra l'altro con il monitor in 4k nativi il DLDSR va troppo oltre 5760x3240 o 5120x2880. nemmeno usando il DLSS in Performance diventa giocabile.
amon.akira
29-09-2022, 20:45
ho provato in Cyperpunk il giochetto DLDSR +DLSS e si vede da dio, ma passo da 60/90 fps a 20/30 è inaccettabile.
Tra l'altro con il monitor in 4k nativi il DLDSR va troppo oltre 5760x3240 o 5120x2880. nemmeno usando il DLSS in Performance diventa giocabile.
diciamo che l hai provato sul titolo che anche normalmente non ce la fa XD
che poi 2880*0.5(performance)=1440p
fai 4k dlss quality e ti sbrighi 2160*0.66(quality)=1440p
davide155
29-09-2022, 21:00
ho provato in Cyperpunk il giochetto DLDSR +DLSS e si vede da dio, ma passo da 60/90 fps a 20/30 è inaccettabile.
Tra l'altro con il monitor in 4k nativi il DLDSR va troppo oltre 5760x3240 o 5120x2880. nemmeno usando il DLSS in Performance diventa giocabile.
Eh vabbè ma partendo già dal 4k c'è poco da fare, il dldsr serve a poco.
Poi come ha detto amon, hai scelto il gioco più bastardo di tutti :D
diciamo che l hai provato sul titolo che anche normalmente non ce la fa XD
che poi 2880*0.5(performance)=1440p
fai 4k dlss quality e ti sbrighi 2160*0.66(quality)=1440p
Eh vabbè ma partendo già dal 4k c'è poco da fare, il dldsr serve a poco.
Poi come ha detto amon, hai scelto il gioco più bastardo di tutti :D
eh lo so, ma a me piace questo :D vabbè vediamo ste recensioni e poi al massimo se basta si va di 4090 o 4090ti. :sofico:
Ale55andr0
29-09-2022, 21:05
ho provato in Cyperpunk il giochetto DLDSR +DLSS e si vede da dio, ma passo da 60/90 fps a 20/30 è inaccettabile.
Tra l'altro con il monitor in 4k nativi il DLDSR va troppo oltre 5760x3240 o 5120x2880. nemmeno usando il DLSS in Performance diventa giocabile.
prova a mantenere la risoluzione divina :ave: ma mettere l'RT una tacca meno ("ultra" invece che "folle", o anche medio..), e a spegnerlo sulle ombre locali e del sole (per me si vedono peggio delle ombre raster :asd: ), risoluzione ombre volumetriche su "medio" e vedi di quanto può salire il frame rate cosi', in caso metti le screen space reflection su "ultra" invece che "folle". Vedi quanto sali di frame così in caso
mikael84
30-09-2022, 01:08
si esatto solo che dovresti avere un vsr che a 2.25x sia come il 4x senza la pesantezza del 4x
e poi dovresti avere l fsr che sia come il dlss in qualità
in rdna3 amd dovrebbe implementare in hw l equivalente tensor di nvidia e intel, mikael se legge magari ce lo spiega meglio :P
AMD può integrare matrici, ma al momento sono solo riservate al HPC, che tra l'altro girano su architettura vega. RDNA è separato.
Basta solo rivedere i CU, che sono già splittati.
https://images.anandtech.com/doci/17054/CDNA2_CU_Clean.png
Ovviamente questo tipo, non è separato da matrici hardware.
AMD può splittare una pipelina FP32 in 2xfp16, 4xINT8.
Utilizzando la matrice un singolo FP, può calcolare 4 volte il ratio FP16.
Non servono motori nativi, e neppure ci saranno, ma volendo può farlo.:)
prova a mantenere la risoluzione divina :ave: ma mettere l'RT una tacca meno ("ultra" invece che "folle", o anche medio..), e a spegnerlo sulle ombre locali e del sole (per me si vedono peggio delle ombre raster :asd: ), risoluzione ombre volumetriche su "medio" e vedi di quanto può salire il frame rate cosi', in caso metti le screen space reflection su "ultra" invece che "folle". Vedi quanto sali di frame così in caso
Ho provato. Allora sempre a risoluzione "divina" 4k:
Tutto max con DLSS Performance 38/67 fps min/max
se metto RT da Folle ad Ultra 38/67 (non cambia nulla)
se metto le impostazione consigliate da Digital Foundry (che sono quello che dici tu) 27/72
se metto a off tutto le opzioni che sono anche calcolate in RT come le ombre a contatto e le volumetriche ma lascio RT su on 27/67.
e da quì non ci si schioda.
Poi ho fatto l'inverso e per avere 60 sui minimi significa avere picchi di 97 sui massimi e giocare con le impostazioni tra alto e medio con RT su alto e comunque DLSS su Performance. Per me non è accettabile.
fatto anche la prova DLDSR +DLSS si vede benissimo ma sembra di essere alla fiera delle diapositive con framerate 24/32
Ho provato. Allora sempre a risoluzione "divina" 4k:
Tutto max con DLSS Performance 38/67 fps min/max
se metto RT da Folle ad Ultra 38/67 (non cambia nulla)
se metto le impostazione consigliate da Digital Foundry (che sono quello che dici tu) 27/72
se metto a off tutto le opzioni che sono anche calcolate in RT come le ombre a contatto e le volumetriche ma lascio RT su on 27/67.
e da quì non ci si schioda.
Poi ho fatto l'inverso e per avere 60 sui minimi significa avere picchi di 97 sui massimi e giocare con le impostazioni tra alto e medio con RT su alto e comunque DLSS su Performance. Per me non è accettabile.
fatto anche la prova DLDSR +DLSS si vede benissimo ma sembra di essere alla fiera delle diapositive con framerate 24/32
il dldsr va bene solo per i 2K che abilitando il DLSS non vogliono perdere qualità visiva, in 4K secondo me non ha senso abilitarlo, si va di dlss quality e stop.
e comunque per me è una cavolata anche il dldsr+dlss. Se abiliti il DLSS è perchè vuoi più frame, avere qualità migliore e più frame è e sarà sempre un paradigma non ottenibile
il dldsr va bene solo per i 2K che abilitando il DLSS non vogliono perdere qualità visiva, in 4K secondo me non ha senso abilitarlo, si va di dlss quality e stop.
e comunque per me è una cavolata anche il dldsr+dlss. Se abiliti il DLSS è perchè vuoi più frame, avere qualità migliore e più frame è e sarà sempre un paradigma non ottenibile
Si concordo in 4k non c'è scampo serve più bumba, ma tanto ormai è sicuro che le 4090Ti sono già belle che in canna, quindi si aspetta, ci si legge tutte le review alla vecchia maniera, e quando è tutto bello sul mercato si compra con tutta calma.
il dldsr va bene solo per i 2K che abilitando il DLSS non vogliono perdere qualità visiva, in 4K secondo me non ha senso abilitarlo, si va di dlss quality e stop.
e comunque per me è una cavolata anche il dldsr+dlss. Se abiliti il DLSS è perchè vuoi più frame, avere qualità migliore e più frame è e sarà sempre un paradigma non ottenibileCol parametro a 1.78x e DLSS Quality, si guadagna definizione e smussatura a costo di pochi punti percentuali.
Per quello dicevo che già a bilanciato perde di senso, come dicevo che non è la strada buona per aumetnare le prestazioni.
Però il mix che sottolineo la qualità la migliora, e non poco.
Un paio di immagini fatte al volo con dldsr 2.25x e dlss su qualità. Risoluzione di partenza 2560x1440, poi upscalata con dldsr a 3840x2160 e riportata in dlss a 2560x1440.
Ditemi voi se non è uno spettacolo
https://i.ibb.co/r263DLQ/Screen-Shot-2022-9-28-11-56-1.png (https://ibb.co/8g5b1Rm)
https://i.ibb.co/9WzHbHn/Screen-Shot-2022-9-29-0-26-32.png (https://ibb.co/5LthrhT)
M'ero scordato... Come fanno ad essere a 4K se usi il DL-DSR da 4K in su, per altro con GOW che neanche supporta il full screen.
Hai fatto il downsampling del downsampling delle foto...?
Ricordati che il risultato va visto in real time sul proprio monitor. Se no sembra che continui a non capire del tutto la questione.
.
Cutter90
30-09-2022, 10:18
Col parametro a 1.78x e DLSS Quality, si guadagna definizione e smussatura a costo di pochi punti percentuali.
Per quello dicevo che già a bilanciato perde di senso, come dicevo che non è la strada buona per aumetnare le prestazioni.
Però il mix che sottolineo la qualità la migliora, e non poco.
M'ero scordato... Come fanno ad essere a 4K se usi il DL-DSR da 4K in su, per altro con GOW che neanche supporta il full screen.
Hai fatto il downsampling del downsampling delle foto...?
Ricordati che il risultato va visto in real time sul proprio monitor. Se no sembra che continui a non capire del tutto la questione.
.
E' partito dal 1440p, usando il dldsr è andato a 2160p, poi con il dlss ingame su quality dovrebbe essere tornato attorno al 1440p (anche se il dlss su quality da quello che ricordo io non era sul 1620p?)
amon.akira
30-09-2022, 10:21
E' partito dal 1440p, usando il dldsr è andato a 2160p, poi con il dlss ingame su quality dovrebbe essere tornato attorno al 1440p (anche se il dlss su quality da quello che ricordo io non era sul 1620p?)
non è fisso, è % nativa
ultra performance 33%
performance 50%
balanced 58%
quality 66%
E' partito dal 1440p, usando il dldsr è andato a 2160p, poi con il dlss ingame su quality dovrebbe essere tornato attorno al 1440p (anche se il dlss su quality da quello che ricordo io non era sul 1620p?)Anche fosse, che senso avrebbe postare le foto parlando del DL-DSR senza mostrare il risultato?
Intendiamoci, il maggior dettaglio si vedrebbe anche in una foto/video a scalare, ma non sarebbe come quello che vedi nel monitor.
Insisto, mi sa che in qualche modo non vi entra del tutto il concetto.
Parlavo di risultato buono anche col mix VSR+FSR-2 di AMD per farlo capire meglio.
Per dire che sfruttanto l'efficienza dell'upscaler si ha un buon risultato anche con metodi senza AI.
Cutter90
30-09-2022, 13:03
Anche fosse, che senso avrebbe postare le foto parlando del DL-DSR senza mostrare il risultato?
Intendiamoci, il maggior dettaglio si vedrebbe anche in una foto/video a scalare, ma non sarebbe come quello che vedi nel monitor.
Insisto, mi sa che in qualche modo non vi entra del tutto il concetto.
Parlavo di risultato buono anche col mix VSR+FSR-2 di AMD per farlo capire meglio.
Per dire che sfruttanto l'efficienza dell'upscaler si ha un buon risultato anche con metodi senza AI.
Un buon risultato non significa " il medesimo" però come avevi detto tu. Sicuramente anche la controparte amd ha le sue carte e sono buone. Non il risultato non è il medesimo di Nvidia in questo aspetto
Un buon risultato non significa " il medesimo" però come avevi detto tu. Sicuramente anche la controparte amd ha le sue carte e sono buone. Non il risultato non è il medesimo di Nvidia in questo aspettoNon era solo per fare il solito confronto, serviva a capire che quel mix può essere buono a prescindere.
Puoi provare anche tu, usa il DSR normale in GOW che ha anche il FSR-2.0, oppure usa la mod per forzarlo dove c'è solo il DLSS.
Sempre considerando il TAA ormai quasi scontato, e non solo, perché se ad esempio c'è il SMAA il DS può servire a mussare meglio.
In quel caso non sarà necessario usare un filtro sharp come il CAS (usabile anche con Nvidia tramite ReShade), visto che non annebbia come il TAA.
L'importante è capire che quel mix serve per la qualità, scendendo col ratio degli upscaler perde di senso.
A quel punto la pulizia scende, e si rischiano artefatti superiori a quelli del TAA.
Col mix AMD si avrà un po' di shimmering nella roba fine, cosa che in pratica già avviene col TAA, ma nel resto sarà tutto meglio.
Se il DLSS prende bene, col DLDSR + DLSS Quality si hanno più dettagli nitidi senza un minimo di aliasing e sbarellamenti vari.
Ad esempio, il risultato in Horizon e GOW rasenta la perfezione.
Il mix AMD è buono in confronto a quello ottimo Nvidia, ma sempre molto meglio del nativo con TAA, se è questo che ti interessava...
Il downsampling si usava ai tempi di GeToSaDo, in pratica serviva a forzare il SSAA.
Il classico Super Sampling partiva dallo stesso principio, aumentare la risoluzione per poi "rimetterla dentro", infatti era una bella mattonata...
Sto sbattendo la testa contro lo spigolo del case dopo aver deciso di sostituire i pad termici della 3080 FE,la scheda funzionava correttamente ero solo stanco di vedere le memorie a 105 gradi.
Ho perso segnale video dopo uno dei reassembly, con ventole che girano intorno al 20%. Non credo sia una porta danneggiata poichè anche i led non si accendono. Il core è risultato leggermente caldo quando ho avviato la scheda per pochi secondi senza dissipatore, anche se dopo 6-7 secondi mi sarei aspettato di dover levare il dito dal core.
Il fatto che ci passi corrente all'interno non prova che funzioni ma nel caso in cui non fosse il core il problema allora la scheda è riparabile, devo aver fatto saltare un smd, o addirittura dissaldato un pin dal vrm o dalle memorie, e in quel caso spero che un reballing risolva il mio problema.
Avendo dovuto eseguire la procedura più volte a causa di scarso contatto sul die, nonostante abbia usato Gelid Extreme 2mm per il front consigliati da tutti e dopo aver pressato i pad per avere maggiore contatto con il core,è probabile abbia fatto staccare un fusibile nel rimontaggio o dissaldato un pin su una memoria.
Ho deciso che dopo molti tentativi fosse la cosa migliore provare ad affidarmi ad un laboratorio specializzato in reballing, che dovrebbe prima di tutto fare una diagnosi sperando che la procedura non sia necessaria. Tra l'altro sarei in ogni caso preoccupato in caso di reballing perchè non credo proprio che il lab in questione abbia 50 euro di stencil adeguati al mio die e alle gddr6x, ma del resto non mi restano molte altre possibiltà.
Al di là dell'essere tutti d'accordo sul fatto che questo sia un chiaro esempio di uso improprio di hardware da parte di uno sprovveduto qualcuno avrebbe qualche suggerimento o idea?
Cordialmente,
a former 3080FE owner
Sto sbattendo la testa contro lo spigolo del case dopo aver deciso di sostituire i pad termici della 3080 FE,la scheda funzionava correttamente ero solo stanco di vedere le memorie a 105 gradi.
Ho perso segnale video dopo uno dei reassembly, con ventole che girano intorno al 20%. Non credo sia una porta danneggiata poichè anche i led non si accendono. Il core è risultato leggermente caldo quando ho avviato la scheda per pochi secondi senza dissipatore, anche se dopo 6-7 secondi mi sarei aspettato di dover levare il dito dal core.
Il fatto che ci passi corrente all'interno non prova che funzioni ma nel caso in cui non fosse il core il problema allora la scheda è riparabile, devo aver fatto saltare un smd, o addirittura dissaldato un pin dal vrm o dalle memorie, e in quel caso spero che un reballing risolva il mio problema.
Avendo dovuto eseguire la procedura più volte a causa di scarso contatto sul die, nonostante abbia usato Gelid Extreme 2mm per il front consigliati da tutti e dopo aver pressato i pad per avere maggiore contatto con il core,è probabile abbia fatto staccare un fusibile nel rimontaggio o dissaldato un pin su una memoria.
Ho deciso che dopo molti tentativi fosse la cosa migliore provare ad affidarmi ad un laboratorio specializzato in reballing, che dovrebbe prima di tutto fare una diagnosi sperando che la procedura non sia necessaria. Tra l'altro sarei in ogni caso preoccupato in caso di reballing perchè non credo proprio che il lab in questione abbia 50 euro di stencil adeguati al mio die e alle gddr6x, ma del resto non mi restano molte altre possibiltà.
Al di là dell'essere tutti d'accordo sul fatto che questo sia un chiaro esempio di uso improprio di hardware da parte di uno sprovveduto qualcuno avrebbe qualche suggerimento o idea?
Cordialmente,
a former 3080FE owner
che versione di 3080FE hai?
ci sono 3 versioni differenti, ognuno ha bisogno dei propri pad.
lascia perdere i gelid extreme, se non usi la scheda solo per mining non fanno al caso tuo
metti pad da 1,5mm all'interno e 2mm dietro. i pad devono esser morbidi il più possibile, cosa che i gelid non sono
Pucceddu
03-10-2022, 14:06
tentare con la garanzia ufficiale nvidia?
tentare con la garanzia ufficiale nvidia?
avendola aperta me l'hanno rifiutata
mattxx88
03-10-2022, 14:23
Sto sbattendo la testa contro lo spigolo del case dopo aver deciso di sostituire i pad termici della 3080 FE,la scheda funzionava correttamente ero solo stanco di vedere le memorie a 105 gradi.
Ho perso segnale video dopo uno dei reassembly, con ventole che girano intorno al 20%. Non credo sia una porta danneggiata poichè anche i led non si accendono. Il core è risultato leggermente caldo quando ho avviato la scheda per pochi secondi senza dissipatore, anche se dopo 6-7 secondi mi sarei aspettato di dover levare il dito dal core.
Il fatto che ci passi corrente all'interno non prova che funzioni ma nel caso in cui non fosse il core il problema allora la scheda è riparabile, devo aver fatto saltare un smd, o addirittura dissaldato un pin dal vrm o dalle memorie, e in quel caso spero che un reballing risolva il mio problema.
Avendo dovuto eseguire la procedura più volte a causa di scarso contatto sul die, nonostante abbia usato Gelid Extreme 2mm per il front consigliati da tutti e dopo aver pressato i pad per avere maggiore contatto con il core,è probabile abbia fatto staccare un fusibile nel rimontaggio o dissaldato un pin su una memoria.
Ho deciso che dopo molti tentativi fosse la cosa migliore provare ad affidarmi ad un laboratorio specializzato in reballing, che dovrebbe prima di tutto fare una diagnosi sperando che la procedura non sia necessaria. Tra l'altro sarei in ogni caso preoccupato in caso di reballing perchè non credo proprio che il lab in questione abbia 50 euro di stencil adeguati al mio die e alle gddr6x, ma del resto non mi restano molte altre possibiltà.
Al di là dell'essere tutti d'accordo sul fatto che questo sia un chiaro esempio di uso improprio di hardware da parte di uno sprovveduto qualcuno avrebbe qualche suggerimento o idea?
Cordialmente,
a former 3080FE owner
riaprila un ultima volta, non prima di aver:
- comprato questo
https://www.digikey.it/it/products/detail/t-global-technology/TG-PP10-50/6204863
- e visto questo video
https://www.youtube.com/watch?v=gcTjRgoJK0I
ne ho ripastate un 6 pezzi ormai cosi, mai 1 problema
mattxx88
03-10-2022, 14:33
avendola aperta me l'hanno rifiutata
scusa ma potrei sapere qualche dettaglio?
Anche io ho fatto rma a una gpu che avevo liquidato e quindi aperta, nel particolare rifiutata per? ma non me l'hanno rifiutata
gli hai detto te che la hai aperta? o hai disintegrato le viti cosi che se ne accorgessero?
devil_mcry
03-10-2022, 14:50
ma quali sono i miglior pad morbidi in generale?
Pucceddu
03-10-2022, 15:54
avendola aperta me l'hanno rifiutata
te l'ha detto chi?
Richiudila e spediscila non possono mica farlo.
StylezZz`
03-10-2022, 16:15
te l'ha detto chi?
Richiudila e spediscila non possono mica farlo.
Ma certo che possono farlo, il danno è suo! E anche se non lo fa presente, se ne accorgono che è stata smontata.
Cosa non copre la garanzia?
Tutti i problemi non correlati specificamente a un difetto di produzione o a un guasto hardware, tra cui, in via esemplificativa, problemi causati da abuso, uso improprio, negligenza, cause di forza maggiore (ad esempio inondazioni), uso del Prodotto in garanzia non conforme ai manuali di utilizzo o altra documentazione tecnica fornita con il Prodotto in garanzia, uso del Prodotto in garanzia con software non fornito insieme al Prodotto in garanzia.
Pucceddu
03-10-2022, 16:39
Ma certo che possono farlo, il danno è suo! E anche se non lo fa presente, se ne accorgono che è stata smontata.
Non è così, non possono non accettare una richiesta di garanzia solo perchè è stato smontato il dissy.
Con le fe almeno non funziona così.
Poi faranno loro le dovute diagnosi, scheda alla mano.
Ma rifiutare perchè l'ha smontata, fosse anche solo per cambiare i pad termici non invalida la garanzia.
Ecco la mia conversazione con Nvidia, ho preferito dire la verità, anche perche si possono notare piccoli scratch sulle viti ed intorno, inoltre ho letteralmente buttato i pad stock:
Gentile Alex,
di seguito riporto il problema da me riscontrato:
dopo aver acquistato una 3080 founders edition tramite LDLC.com ed averla utilizzata per qualche mese, ho notato che il sensore della temperatura delle memorie superava i 105C.
Ho deciso dunque di passare ad un water block ed ho proceduto al montaggio secondo la procedura. Nonostante le temperature siano scese molto sulla memoria e sul core, ottenendo il risultato sperato, la scheda ha successivamente smesso di funzionare dopo vari aggiustamenti della pasta termica e dei pad termici.
Ho schermata nera con ventole intorno al 20%, ho provato a montare la gpu su un’altra scheda madre, ho provato ad utilizzare un diverso adattatore a 12 pin e a riposizionare il water block, tuttavia non ho risolto il problema.
È possibile ricevere assistenza in merito?
Salve,
Grazie per la risposta.
Capisco, purtroppo in questo caso la garanzia non è più valida perchè è stata aperta montato un sistema di raffreddamento custom, che può causare dei danni alla scheda video e questo non viene coperto dalla garanzia. Le lascio qui sotto anche il link della garanzia NVIDIA GeForce:
https://www.nvidia.com/it-it/support/warranty/
Rimango in attesa di una sua risposta per sapere se posso aiutarla con altro ora.
Cordiali Saluti
Alex
NVIDIA Servizio Clienti
Ciao Alex,
sono molto dispiaciuto nel sapere che il montaggio di un raffreddamento a liquido custom non venga coperto da garanzia, ho sentito personalmente di molti utenti che hanno potuto richiedere un RMA dopo aver aperto la scheda, e questo dovrebbe valere soprattutto qui in Europa.
A questo punto non mi resta che chiederti se hai qualche consiglio dal dipartimento tecnico riguardo al problema che ho riscontrato, o una qualunque eventuale soluzione per risolverlo.
Ci tengo a specificare che ho provato a montare la GPU senza dissipatore per 3 secondi, il tempo di capire se almeno scaldasse e difatti ha iniziato a scaldare, è possibile sapere se questo escluda un possibile danno al core?
Grazie
che versione di 3080FE hai?
ci sono 3 versioni differenti, ognuno ha bisogno dei propri pad.
lascia perdere i gelid extreme, se non usi la scheda solo per mining non fanno al caso tuo
metti pad da 1,5mm all'interno e 2mm dietro. i pad devono esser morbidi il più possibile, cosa che i gelid non sono
non ho effettivamente controllato quale versione ho, ne so come controllare.
comunque i gelid extreme sono piuttosto malleabili, ho notato che gli ultimate invece sono piu rigidi
StylezZz`
03-10-2022, 17:39
Non è così, non possono non accettare una richiesta di garanzia solo perchè è stato smontato il dissy.
Con le fe almeno non funziona così.
Poi faranno loro le dovute diagnosi, scheda alla mano.
Ma rifiutare perchè l'ha smontata, fosse anche solo per cambiare i pad termici non invalida la garanzia.
Rifiutare perchè l'ha danneggiata :read:
Gigibian
04-10-2022, 07:24
riaprila un ultima volta, non prima di aver:
- comprato questo
https://www.digikey.it/it/products/detail/t-global-technology/TG-PP10-50/6204863
- e visto questo video
https://www.youtube.com/watch?v=gcTjRgoJK0I
ne ho ripastate un 6 pezzi ormai cosi, mai 1 problema
Quale é il vantaggio di applicare quella pasta sopra i pad stock? Meglio rimpiazzare i pad con qualcuno più performante...
mattxx88
04-10-2022, 07:27
Quale é il vantaggio di applicare quella pasta sopra i pad stock? Meglio rimpiazzare i pad con qualcuno più performante...
non hai vincoli di spessore e/o problemi di accoppiamento meccanico
Metti i pad solo su circuiteria di alimentazione/mosfet vari, sulle memorie invece la pasta.
Fidati che con lo spessore che prende una votla compressa, quella pasta VS pad da 12/14mwk non cambia nulla :fagiano:
Gigibian
04-10-2022, 09:05
non hai vincoli di spessore e/o problemi di accoppiamento meccanico
Metti i pad solo su circuiteria di alimentazione/mosfet vari, sulle memorie invece la pasta.
Fidati che con lo spessore che prende una votla compressa, quella pasta VS pad da 12/14mwk non cambia nulla :fagiano:
Ah ok così mi torna.
Nel video si vedeva pasta sopra i vecchi pad...infatti non capivo..
mattxx88
04-10-2022, 10:13
Ah ok così mi torna.
Nel video si vedeva pasta sopra i vecchi pad...infatti non capivo..
wut?
no no van rimossi i pad, soprattutto quelli della FE che secondo me fan più isolamento termico che altro XD
non l'ho guardato in realtà il video son sincero, ho skippato e ho visto qualche frame dove mostrava come era fatta la pasta, solo per quello l'ho condiviso, assomiglia a gomma pane, più morbida
javiersousa
05-10-2022, 20:45
Ragazzi mi sono perso, ma questo DLDSR si può utilizzare sul mio monitor 2k a 170mhz ?
Ragazzi mi sono perso, ma questo DLDSR si può utilizzare sul mio monitor 2k a 170mhz ?
Si certo che puoi e si ottengono anche ottimi risultati, è in 4k che non funziona bene perchè vai troppo oltre con la risoluzione in fase di upscaling.
Intanto 3dMark con il Feature test del Xess vs DLSS
http://i.imgur.com/eKl0zv8.png (https://imgur.com/eKl0zv8)
Renderizzato in 4k non a default, differenze visive pari a zero ma fluidità migliorata incredibilmente, tuttavia il Xess risulta molto più ricco di noise e piccoli artefatti che sono completamente assenti in DLSS e notare l'incremento rispettivamente del 135% in Xess e del 251% in DLSS
Xess in Ultra quality, DLSS in Performance, da notare che il DLSS ha anche Ultra Perfomance ma non si abilita a meno che non si forzi la risoluzione a 8k, comunque in quel caso:
https://i.imgur.com/UjI3Ib4.png
https://i.imgur.com/Ikl3VU1.png
in questo caso si passa da slideshow di diapositive a accettabile con un bel 3619% di incremento.
amon.akira
09-10-2022, 11:21
da notare che il DLSS ha anche Ultra Perfomance ma non si abilita a meno che non si forzi la risoluzione a 8k
perchè ultra performance equivale al 33% della nativa
4320*0.33=1440p
se lo fai da 4k finisci a 720p (esempio cyberpunk)
DrossBelly
09-10-2022, 13:49
Perdonate l'ignoranza sul DLSS (ho da poco acquistato una 3060): se giocassi a 1080p e non arrivassi a 60 fps o comunque al limite del mio monitor dovrei mettere sulle impostazioni di gioco una risoluzione minore e poi abilitare il dlss e poi vedere quale modalità va bene per arrivare agli fps che mi sono imposto giusto?
StrixyRoG
09-10-2022, 13:56
Perdonate l'ignoranza sul DLSS (ho da poco acquistato una 3060): se giocassi a 1080p e non arrivassi a 60 fps o comunque al limite del mio monitor dovrei mettere sulle impostazioni di gioco una risoluzione minore e poi abilitare il dlss e poi vedere quale modalità va bene per arrivare agli fps che mi sono imposto giusto?
No, devi lasciare la tua risoluzione e provare le varie opzioni di DLSS per vedere con quale ti trovi meglio.
ciao a tutti, ho installato msi afterburn da giorni e assieme si è installato rivatuner
ora, anche se in rivatuner l'opzione "attiva osd" sia OFF (non ricordo come si chiama precisamente), mi parte l'osd in primo piano in momenti casuali e anche quando uso anydesk per collegamenti remoti
come si disabilita totalmente? è un bug?
Secondo voi ha senso prendere una RTX3060 12GB (non-Ti) ora? Ed a che prezzo? La terrei a lungo e la userei principalmente per Blender / modellazione e rendering 3D su Linux. Non ho impellente necessità di cambiare però.
frafelix
11-10-2022, 08:45
Nuova costa circa 370 euro e usata la puoi trovare a circa 300 a meno di non stare dietro le aste su ebay. Se non hai fretta forse ti conviene aspettare che escano le nuove e vedere se i prezzi calano, anche se sono di fasce diverse
La prenderei nuova, ma al di là dei noti VAT player i modelli più economici sono ancora sopra il MSRP. Posso aspettare.
frafelix
11-10-2022, 09:38
Il prezzo di partenza mi pareva fosse 340 euro, quindi non sono così fuori mercato. Il problema è che sono più alte dopo 1 anno e mezzo dall'uscita e non ci sono offerte come per la fascia alta (che è l'unica che sta per essere rimpiazzata)
craesilo
11-10-2022, 11:12
Secondo voi ha senso prendere una RTX3060 12GB (non-Ti) ora? Ed a che prezzo? La terrei a lungo e la userei principalmente per Blender / modellazione e rendering 3D su Linux. Non ho impellente necessità di cambiare però.
per quello che devi fare non ho idea, per giocare fa schifo come rapporto prezzo/prestazioni....c'è disponibile sul sito nvidia la 60ti FE, presa stamattina
per quello che devi fare non ho idea, per giocare fa schifo come rapporto prezzo/prestazioni....c'è disponibile sul sito nvidia la 60ti FE, presa stamattina
In ottica futura lato gaming meglio avere più di 8GB secondo me. Inoltre, per il rendering 3D (path tracing/ray tracing) più VRAM si ha, meglio è perché diventa poi possibile renderizzare scene più complesse. Per questo volevo orientarmi verso la 3060 non-Ti.
Forse entro fine anno viene implementata almeno in Blender il rendering con accelerazione RT hardware anche sulle AMD, ma la meno costosa con 12GB di VRAM è la RX 6700XT.
https://www.phoronix.com/review/blender-33-nvidia-amd/3
https://i.imgur.com/fNenMAu.png
craesilo
11-10-2022, 11:34
In ottica futura lato gaming meglio avere più di 8GB secondo me.
per ora sto a 1440p ma in ottica futura probabile, a me cmq serviva adesso e in quella fascia (adesso) è la migliore....certo potevo risparmiare nei mercatini ma per me il 99% sono minnate, e ovviamente non lo dicono
piperprinx
11-10-2022, 16:14
edit errore
Ma la 3090ti evga che segna disponibilità ma non la data a 1299 è il prezzo giusto? Ha senso con le nuove in uscita? Ho qualche dubbio....mah
alexxx19
12-10-2022, 08:17
Ma la 3090ti evga che segna disponibilità ma non la data a 1299 è il prezzo giusto? Ha senso con le nuove in uscita? Ho qualche dubbio....mah
a me la da disponibile e posso aggiungerla al carrello, comunque si il prezzo è giusto e ieri costava anche meno, 1199 eur
a me la da disponibile e posso aggiungerla al carrello, comunque si il prezzo è giusto e ieri costava anche meno, 1199 eur
Mannaggia non ho visto, cmq se vai avanti ti dice che non c'è disponibilità, imho le hanno esaurite ieri!
alexxx19
12-10-2022, 09:16
Mannaggia non ho visto, cmq se vai avanti ti dice che non c'è disponibilità, imho le hanno esaurite ieri!
si l' ordine te lo fa completare, ma ti dice che la data di consegna viene comunicata dopo aver completato l' ordine, quindi si ieri erano poi esaurite e faranno re-stock a breve credo
Thunder-74
12-10-2022, 15:18
Ancora per un po' rimango su questo Thread :fagiano: , quindi ....
NVIDIA GeForce Graphics Drivers 522.25 WHQL
LINK (https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/)
NOTE UFFICIALI (https://us.download.nvidia.com/Windows/522.25/522.25-win11-win10-release-notes.pdf)
Gaming Technology
Includes support for the GeForce RTX 4090. :fagiano:
This new Game Ready Driver provides the best day-0 gaming experience for the latest new DLSS titles including Gotham Knights, Uncharted: Legacy of Thieves Collection, and Dakar Desert
Rally. In addition, this Game Ready Driver supports the first new DLSS 3 titles including A Plague Tale: Requiem, Justice, Loopmancer, F1 22, Bright Memory: Infinite, SUPER PEOPLE, Microsoft
Flight Simulator, and Marvel's Spider-Man Remastered.
This Game Ready Driver also includes significant DirectX 12 performance optimizations which can dramatically improve performance for GeForce 30 Series GPUs. :eek: :eek:
Fixed
- [Teardown] Resolves lower performance observed when MSI Afterburner overlay is used
- Tiny Tina's Wonderlands displays texture corruption after extended gameplay on NVIDIA GPUs
- UE5.1 crashes when enabling path tracing on some drivers
Open Issues
- Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]
- Videos played back in Microsoft Edge may appear green if NVIDIA Image Scaling is enabledupon resuming from hibernate or booting with fastboot. [3624218]
- [DirectX 12] Shadowplay recordings may appear over exposed when Use HDR is enabledfrom the Windows display settings. [200742937]
- Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
- [RTX 30 series] Lower performance in Minecraft Java Edition. [3702953]
- [Forza Horizon 5] Rainbow like artifacts in game after driver update. [3685123]
- Dell XPS 9560 may crash and reboot when using desktop applications [3737715]
- Maxon - Cinema4D + Redshift3D vidmemory allocations cause TDR or Driver Crash [3659104]
- RedCine-X Pro potential crash while working with effects during video playback [3809401]
EDIT:
Nvidia afferma che il suo ultimo driver GPU GeForce includerà alcuni significativi miglioramenti delle prestazioni per giochi come Cyberpunk 2077 , Forza Horizon 5 e molti altri titoli DirectX 12. Alcuni dei miglioramenti delle prestazioni sono l'aumento percentuale a due cifre della frequenza dei fotogrammi, su 1080p, 1440p e 4K.
Cyberpunk 2077 vedrà miglioramenti fino al 20% a 1080p, con Assassin's Creed Valhalla che salterà fino al 25% alla stessa risoluzione. Anche Control vedrà miglioramenti a 4K fino al 6%.
"Questi miglioramenti includono l'ottimizzazione della compilazione degli shader, la riduzione del sovraccarico della CPU e i profili BAR ridimensionabili per Forza Horizon 5 e F1 22", spiega Nvidia in un post sul blog di oggi . "Molte di queste ottimizzazioni sono particolarmente vantaggiose negli scenari legati alla CPU, consentendo di utilizzare la scheda grafica in misura maggiore".
Ecco l'elenco completo dei miglioramenti delle prestazioni:
Assassin's Creed Valhalla: fino al 25 percento (1080p)
Battlefield 2042 : fino al 7% (1080p)
Borderlands 3: fino all'8% (1080p)
Call of Duty: Vanguard: fino al 12% (4K)
Control: fino al 6 percento (4K)
Cyberpunk 2077: fino al 20 percento (1080p)
F1 22 : fino al 17 percento (4K)
Far Cry 6: fino al 5 percento (1440p)
Forza Horizon 5: fino all'8% (1080P)
Horizon Zero Dawn: Complete Edition: fino all'8 percento (4k)
Red Dead Redemption 2: fino al 7% (1080p)
Shadow of the Tomb Raider: fino al 5 percento (1080p)
Tom Clancy's The Division 2: fino al 5% (1080p)
Watch Dogs: Legion : fino al 9 percento (1440p)
Andy1111
12-10-2022, 17:12
Thunder-74 che coincidenza dopo le rece escono i driver che mettono una pezza alla bassa risoluzione della serie 3000 :cool:
Thunder-74 che coincidenza dopo le rece escono i driver che mettono una pezza alla bassa risoluzione della serie 3000 :cool:
ovviemante e aspetta quelli che abilitano il DLSS3 senza fil fake frame! :O
Thunder-74
12-10-2022, 19:37
Thunder-74 che coincidenza dopo le rece escono i driver che mettono una pezza alla bassa risoluzione della serie 3000 :cool:
comunque graditi. io ad esempio ho trovato giovamenti in BF2042 alla mia res.
Ora ho la scheda che quasi sempre sta al 100%.
Sto titolo è maledetto per la CPU.
fraussantin
12-10-2022, 20:52
Ancora per un po' rimango su questo Thread :fagiano: , quindi ....
NVIDIA GeForce Graphics Drivers 522.25 WHQL
LINK (https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/)
NOTE UFFICIALI (https://us.download.nvidia.com/Windows/522.25/522.25-win11-win10-release-notes.pdf)
Gaming Technology
Includes support for the GeForce RTX 4090. :fagiano:
This new Game Ready Driver provides the best day-0 gaming experience for the latest new DLSS titles including Gotham Knights, Uncharted: Legacy of Thieves Collection, and Dakar Desert
Rally. In addition, this Game Ready Driver supports the first new DLSS 3 titles including A Plague Tale: Requiem, Justice, Loopmancer, F1 22, Bright Memory: Infinite, SUPER PEOPLE, Microsoft
Flight Simulator, and Marvel's Spider-Man Remastered.
This Game Ready Driver also includes significant DirectX 12 performance optimizations which can dramatically improve performance for GeForce 30 Series GPUs. :eek: :eek:
Fixed
- [Teardown] Resolves lower performance observed when MSI Afterburner overlay is used
- Tiny Tina's Wonderlands displays texture corruption after extended gameplay on NVIDIA GPUs
- UE5.1 crashes when enabling path tracing on some drivers
Open Issues
- Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]
- Videos played back in Microsoft Edge may appear green if NVIDIA Image Scaling is enabledupon resuming from hibernate or booting with fastboot. [3624218]
- [DirectX 12] Shadowplay recordings may appear over exposed when Use HDR is enabledfrom the Windows display settings. [200742937]
- Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
- [RTX 30 series] Lower performance in Minecraft Java Edition. [3702953]
- [Forza Horizon 5] Rainbow like artifacts in game after driver update. [3685123]
- Dell XPS 9560 may crash and reboot when using desktop applications [3737715]
- Maxon - Cinema4D + Redshift3D vidmemory allocations cause TDR or Driver Crash [3659104]
- RedCine-X Pro potential crash while working with effects during video playback [3809401]
EDIT:
Nvidia afferma che il suo ultimo driver GPU GeForce includerà alcuni significativi miglioramenti delle prestazioni per giochi come Cyberpunk 2077 , Forza Horizon 5 e molti altri titoli DirectX 12. Alcuni dei miglioramenti delle prestazioni sono l'aumento percentuale a due cifre della frequenza dei fotogrammi, su 1080p, 1440p e 4K.
Cyberpunk 2077 vedrà miglioramenti fino al 20% a 1080p, con Assassin's Creed Valhalla che salterà fino al 25% alla stessa risoluzione. Anche Control vedrà miglioramenti a 4K fino al 6%.
"Questi miglioramenti includono l'ottimizzazione della compilazione degli shader, la riduzione del sovraccarico della CPU e i profili BAR ridimensionabili per Forza Horizon 5 e F1 22", spiega Nvidia in un post sul blog di oggi . "Molte di queste ottimizzazioni sono particolarmente vantaggiose negli scenari legati alla CPU, consentendo di utilizzare la scheda grafica in misura maggiore".
Ecco l'elenco completo dei miglioramenti delle prestazioni:
Assassin's Creed Valhalla: fino al 25 percento (1080p)
Battlefield 2042 : fino al 7% (1080p)
Borderlands 3: fino all'8% (1080p)
Call of Duty: Vanguard: fino al 12% (4K)
Control: fino al 6 percento (4K)
Cyberpunk 2077: fino al 20 percento (1080p)
F1 22 : fino al 17 percento (4K)
Far Cry 6: fino al 5 percento (1440p)
Forza Horizon 5: fino all'8% (1080P)
Horizon Zero Dawn: Complete Edition: fino all'8 percento (4k)
Red Dead Redemption 2: fino al 7% (1080p)
Shadow of the Tomb Raider: fino al 5 percento (1080p)
Tom Clancy's The Division 2: fino al 5% (1080p)
Watch Dogs: Legion : fino al 9 percento (1440p)
sto avendo stutter e crash in spiderman
Abbassato rt di una tacca e adesso pare andare
(THE REAL) Neo
13-10-2022, 13:00
Ma la 3090ti evga che segna disponibilità ma non la data a 1299 è il prezzo giusto? Ha senso con le nuove in uscita? Ho qualche dubbio....mahL'avevo messa in carrello.
Poi ho fatto scendere la scimmia con una sberla,e ho fatto "rimuovi".
Cutter90
13-10-2022, 15:12
Vista l'analisi di DF sul dlss 3. Potenzialità enormi. Qualche difetto che durante il gioco o si vede poco o non si vede proprio. Latenza che aumenta molto se abbinata al vsync e si sta attaccati al cap di fps.
Tutte cose da risolvere e che sicuramente faranno. DEl resto con dlss 3 in cp si passa nei bench da 50-60 fps senza rt 4k ad ultra a 100 fps con rt a folle e 4k ad ultra. Prestazionalmente il dlss 3 è una roba assurda.
https://www.youtube.com/watch?v=92ZqYaPXxas
Vista l'analisi di DF sul dlss 3. Potenzialità enormi. Qualche difetto che durante il gioco o si vede poco o non si vede proprio. Latenza che aumenta molto se abbinata al vsync e si sta attaccati al cap di fps.
Tutte cose da risolvere e che sicuramente faranno. DEl resto con dlss 3 in cp si passa nei bench da 50-60 fps senza rt 4k ad ultra a 100 fps con rt a folle e 4k ad ultra. Prestazionalmente il dlss 3 è una roba assurda.
https://www.youtube.com/watch?v=92ZqYaPXxas
Ed è fondamentale restare al di sotto della frequenza di aggiornamento massima del proprio display per ridurre a soli 10 ms l'aumento di input lag.
Cutter90
13-10-2022, 15:42
Ed è fondamentale restare al di sotto della frequenza di aggiornamento massima del proprio display per ridurre a soli 10 ms l'aumento di input lag.
Che questa però è una bella cavolata. Spero che risolvano quanto prima
https://i.imgur.com/AxqGS1kl.png
Questa è la mia, abbiamo il thread ufficiale di SPEED WAY?
amon.akira
13-10-2022, 19:49
nvidia-reportedly-removes-lite-hash-rate-limiter-with-the-latest-driver (https://videocardz.com/newz/nvidia-reportedly-removes-lite-hash-rate-limiter-with-the-latest-driver)
StylezZz`
13-10-2022, 20:04
nvidia-reportedly-removes-lite-hash-rate-limiter-with-the-latest-driver (https://videocardz.com/newz/nvidia-reportedly-removes-lite-hash-rate-limiter-with-the-latest-driver)
Ehhh bisogna smaltirle queste 3000 :D
davide155
13-10-2022, 20:12
https://i.imgur.com/AxqGS1kl.png
Questa è la mia, abbiamo il thread ufficiale di SPEED WAY?Risultato sotto tono per una strix 3090....
Io ne faccio almeno 600 in più con la fe in downvolt.
sertopica
13-10-2022, 20:13
Davvero ottimi sti driver appena usciti devo dire. nelle scene piu' cpu limited in cyberpunk ho guadagnato un bel po' di fps ed e' assai piu' fluido a parita' di impostazioni. La gpu scalda anche circa 6-7 gradi in piu' allo stesso tempo, a seconda del luogo e della pesantezza.
Io per la prima volta sto sperimentando il DLSS dopo aver preso una 3060...
...anzi DLDSR + DLSS + DLAA= sto ancora sbavando! :sofico:
In Spiderman remastered ho le stesse identiche prestazioni ma con una qualità e pulizia di immagine mai viste prima!
Non riesco più ad tornare a 1080p del mio monitor nativo, mi sembra tutto cosi osceno.
Dove posso lo attivo, prestazioni permettendo. E' spettacolare!
davide155
13-10-2022, 20:54
Io per la prima volta sto sperimentando il DLSS dopo aver preso una 3060...
...anzi DLDSR + DLSS + DLAA= sto ancora sbavando! :sofico:
In Spiderman remastered ho le stesse identiche prestazioni ma con una qualità e pulizia di immagine mai viste prima!
Non riesco più ad tornare a 1080p del mio monitor nativo, mi sembra tutto cosi osceno.
Dove posso lo attivo, prestazioni permettendo. E' spettacolare!Io è mesi che lo dico. Il dldsr è uno spettacolo per gli occhi. E grazie al dlss si ha comunque prestazioni simili alla nativa ma con un dettaglio fuori dal normale.
Alekos Panagulis
13-10-2022, 20:55
Davvero ottimi sti driver appena usciti devo dire. nelle scene piu' cpu limited in cyberpunk ho guadagnato un bel po' di fps ed e' assai piu' fluido a parita' di impostazioni. La gpu scalda anche circa 6-7 gradi in piu' allo stesso tempo, a seconda del luogo e della pesantezza.
Confermo. Ho confrontato una singola scena di Cyberpunk in cui facevo 60-61 frames: ora ne faccio 67-68.
Sembra incredibile che sia bastato un aggiornamento. :mbe: :eek:
Risultato sotto tono per una strix 3090....
Io ne faccio almeno 600 in più con la fe in downvolt.
Si ho cannato le impostazioni sono 5670 con il.mio daily da gaming ma non ho ripostato :)
davide155
13-10-2022, 21:28
Si ho cannato le impostazioni sono 5670 con il.mio daily da gaming ma non ho ripostato :)Ahh ok, ora si ;)
amon.akira
13-10-2022, 21:33
3060ti speedway new vs old driver (https://www.3dmark.com/compare/sw/11052/sw/10958#)
però su portroyal ho avuto solo +1%, qui non so cos'è successo ma +24% mi sembra eccessivo
https://www.3dmark.com/sw/9891Ahh ok, ora si ;)
Thunder-74
13-10-2022, 21:45
Confermo. Ho confrontato una singola scena di Cyberpunk in cui facevo 60-61 frames: ora ne faccio 67-68.
Sembra incredibile che sia bastato un aggiornamento. :mbe: :eek:
Hanno lavorato su llla ricompi l’azione degli shader e ottimizzato il r.bar , visto che prima non dava quasi nulla in più .
Inviato dal mio iPhone X utilizzando Tapatalk
StylezZz`
13-10-2022, 22:43
https://i.imgur.com/t1yTp0f.jpg
sertopica
14-10-2022, 05:58
Confermo. Ho confrontato una singola scena di Cyberpunk in cui facevo 60-61 frames: ora ne faccio 67-68.
Sembra incredibile che sia bastato un aggiornamento. :mbe: :eek:
Ogni tanto il rubinetto lo apre quello spilorcio di giacchetta :asd: :asd:
giusto giusto per fare le scarpe alla concorrenza e rendere le 3xxx piu' appetibili.
StrixyRoG
14-10-2022, 06:08
Confermo. Ho confrontato una singola scena di Cyberpunk in cui facevo 60-61 frames: ora ne faccio 67-68.
Sembra incredibile che sia bastato un aggiornamento. :mbe: :eek:
Differenza abissale direi :D Senza il programmino aperto vedresti differenza pari a zero.
sertopica
14-10-2022, 06:10
Differenza abissale direi :D Senza il programmino aperto vedresti differenza pari a zero.
Scusa ma non e' vero. La differenza la vedi eccome perche' in certi casi il calo di fluidita' era percepibile ed ora non c'e'. Non stiamo parlando di 2 fps.
Polemica nonsense. :doh:
StrixyRoG
14-10-2022, 06:13
Scusa ma non e' vero. La differenza la vedi eccome perche' in certi casi il calo di fluidita' era percepibile ed ora non c'e'. Non stiamo parlando di 2 fps.
Polemica nonsense. :doh:
Non è polemica, ma un dato di fatto. Se io ti facessi vedere dei giochi in azioni tu non sapresti dirmi quanti fps genera, ormai si pensa più a guardare numeri che con i propri occhi. Io ho provato e non vedo alcuna differenza.
sertopica
14-10-2022, 06:16
Non è polemica, ma un dato di fatto. Se io ti facessi vedere dei giochi in azioni tu non sapresti dirmi quanti fps genera, ormai si pensa più a guardare numeri che con i propri occhi. Io ho provato e non vedo alcuna differenza.
Bah forse perche' ne fai gia' molti avendo una 3090 se non erro? E la percezione di fluidita' e' relativa, bisogna tenere anche questo a mente.
E' ovvio che chi ha schede meno potenti ne possa beneficiare maggiormente.
Alekos Panagulis
14-10-2022, 06:17
Differenza abissale direi :D Senza il programmino aperto vedresti differenza pari a zero.E quindi?
Inviato dal mio CPH2305 utilizzando Tapatalk
StrixyRoG
14-10-2022, 06:57
Bah forse perche' ne fai gia' molti avendo una 3090 se non erro? E la percezione di fluidita' e' relativa, bisogna tenere anche questo a mente.
E' ovvio che chi ha schede meno potenti ne possa beneficiare maggiormente.
Ho una 3080ti, ma praticamente prestazioni da 3090, quindi si.
E quindi?
Inviato dal mio CPH2305 utilizzando Tapatalk
Per come l'avevi scritto sembrava un aggiornamento epocale, tutto lì, nessuna polemica o altro :D Io non vedo differenze, ed anche vedendo le comparazioni online. Se tu noti netti miglioramenti, buon per te ;)
craesilo
14-10-2022, 07:59
Io per la prima volta sto sperimentando il DLSS dopo aver preso una 3060...
...anzi DLDSR + DLSS + DLAA= sto ancora sbavando! :sofico:
In Spiderman remastered ho le stesse identiche prestazioni ma con una qualità e pulizia di immagine mai viste prima!
Non riesco più ad tornare a 1080p del mio monitor nativo, mi sembra tutto cosi osceno.
Dove posso lo attivo, prestazioni permettendo. E' spettacolare!
il primo si attiva da pannello mentre gli altri 2 nel gioco giusto?
Cutter90
14-10-2022, 08:08
Differenza abissale direi :D Senza il programmino aperto vedresti differenza pari a zero.
Ahahahah ma che discorso sarebbe? Allora tanto vale giocare a 30. Ancora meglio, se il gioco non lo provi la differenza la noti ancora meno sai?
sertopica
14-10-2022, 08:38
Ahahahah ma che discorso sarebbe? Allora tanto vale giocare a 30. Ancora meglio, se il gioco non lo provi la differenza la noti ancora meno sai?
lol :sbonk:
questo incremento avviene in quei casi limite in cui ce n'era davvero bisogno, tipo alta densita' di pedoni (migliore scenario per testare sono i mercati cherry blossom e quello di kabuki dietro il diner) piu' pletora di effetti rt attivati all'unisono. era proprio li' che la mia 3080 arrancava a 1440p e scendeva sotto i 60 fps, complice anche la cpu chiaramente che ormai e' di due tre generazioni vecchia. Se da 50 fps passi a 58 la differenza la noti eccome.
amon.akira
14-10-2022, 08:48
il primo si attiva da pannello mentre gli altri 2 nel gioco giusto?
non puoi mettere dlss e dlaa insieme
Alekos Panagulis
14-10-2022, 08:55
Ho una 3080ti, ma praticamente prestazioni da 3090, quindi si.
Per come l'avevi scritto sembrava un aggiornamento epocale, tutto lì, nessuna polemica o altro :D Io non vedo differenze, ed anche vedendo le comparazioni online. Se tu noti netti miglioramenti, buon per te ;)
Sinceramente il tuo intervento sembrava polemico, ma se ho frainteso io tanto meglio :)
L'incremento da 61 a 67-68 vale più del 10%, mi sembra un balzo notevole (non epocale, come hai scritto tu). Ovviamente l'ho misurato con un FPS counter, non certo ad occhio nudo.
Riguardo alla mia percezione, mi accorgo - senza quasi mai sbagliare, e senza FPS counter - quando scendo sotto i 60, perché mi sembra visibilmente laggoso.
Sopra i 60 inizio a percepire differenze marcate intorno agli 80-100, dove si entra nel regno della fluidità pura. Provo una sensazione di piacere.
Fra 61 e 67 no, non mi accorgo del cambiamento.
StrixyRoG
14-10-2022, 09:01
Sinceramente il tuo intervento sembrava polemico, ma se ho frainteso io tanto meglio :)
L'incremento da 61 a 67-68 vale più del 10%, mi sembra un balzo notevole (non epocale, come hai scritto tu). Ovviamente l'ho misurato con un FPS counter, non certo ad occhio nudo.
Riguardo alla mia percezione, mi accorgo - senza quasi mai sbagliare, e senza FPS counter - quando scendo sotto i 60, perché mi sembra visibilmente laggoso.
Sopra i 60 inizio a percepire differenze marcate intorno agli 80-100, dove si entra nel regno della fluidità pura. Provo una sensazione di piacere.
Fra 61 e 67 no, non mi accorgo del cambiamento.
In effetti poteva sembrare una polemica adesso che rileggo, ma no, tutto ok ;)
E' che ho un personale odio verso tutti sti programmi che devono dirti quanto fai, 60, 62, 63, e poi magari si innesca anche quello che è l'effetto placebo.
Io nei giochi imposto la risoluzione ed i vari settaggi, poi vedo come va e da lì mi regolo, che faccia 65 o 68 non mi interessa, devo vederlo con i miei occhi se è fluido e va come dico io, non deve essere un numero a dirmelo.
Poi, come ho scritto, se tu vedi miglioramenti vuol dire che qualcosina è stato fatto, io mi sono concentrato sui soli numeri, quindi tutto ok.
craesilo
14-10-2022, 09:14
non puoi mettere dlss e dlaa insieme
quindi ha sbagliato a scrivere?
quindi ha sbagliato a scrivere?
Si mi sono espresso male. Il DLAA è già attivo di default nel DLSS, almeno credo. :stordita:
Comunque si, DLDSR dal pannello, poi attivi dlss nel gioco stesso.
sertopica
14-10-2022, 09:36
Si mi sono espresso male. Il DLAA è già attivo di default nel DLSS, almeno credo. :stordita:
Comunque si, DLDSR dal pannello, poi attivi dlss nel gioco stesso.
No sbagliato. Il DLAA e' il DLSS meno l'upscaling.
Gigibian
14-10-2022, 09:37
Hanno lavorato su llla ricompi l’azione degli shader e ottimizzato il r.bar , visto che prima non dava quasi nulla in più .
Inviato dal mio iPhone X utilizzando Tapatalk
Pensa che m*da di driver avevamo prima...capito perché le console rendono di più a parità di hw?
Questo driver è un netto passo avanti, al netto della mappa di cyberpunk.
Certo che c'è ne hanno messo di tempo per tirarlo fuori eh :rolleyes:
Predator_1982
14-10-2022, 10:06
Questo driver è un netto passo avanti, al netto della mappa di cyberpunk.
Certo che c'è ne hanno messo di tempo per tirarlo fuori eh :rolleyes:
hanno ovviamente atteso l'uscita della serie 4000 per rendere ancora appetibili le 3000
pheasant_killer
14-10-2022, 10:11
Questo driver è un netto passo avanti, al netto della mappa di cyberpunk.
Certo che c'è ne hanno messo di tempo per tirarlo fuori eh :rolleyes:
dai huang qualcosa l'ha tirato fuori... :stordita: ---> :eek: ---> :cry:
davide155
14-10-2022, 10:16
hanno ovviamente atteso l'uscita della serie 4000 per rendere ancora appetibili le 3000Beh secondo i dati nvidia l'appetibilità è relegata al 1080p e pochi punti percentuali. Già in 1440p la soglia di miglioramento scende ancora più giù.
Però si, credo non sia un caso.
sertopica
14-10-2022, 10:22
Beh secondo i dati nvidia l'appetibilità è relegata al 1080p e pochi punti percentuali. Già in 1440p la soglia di miglioramento scende ancora più giù.
Però si, credo non sia un caso.
Questi i dati forniti da nvidia a 1440p:
https://abload.de/img/geforce-rtx-30-serieskqfwj.png
Non male...
Questi i dati forniti da nvidia a 1440p:
https://abload.de/img/geforce-rtx-30-serieskqfwj.png
Non male...
occhio che sono driver game ready, non studio.
Sicuramente una fantastica notizia (+20% è tantissimo), ma aspetterei ancora un po' ad usarli daily, sicuramente ci sarà da far ancora qualcosa
Gigibian
14-10-2022, 11:28
hanno ovviamente atteso l'uscita della serie 4000 per rendere ancora appetibili le 3000
Da sviluppatore embedded con qualche anno sulle spalle, per definizione se un driver dopo 2 anni migliora del +20%, non è che hanno "sviluppato qualcosa di più performante" con questo nuovo driver, ma il punto è che siamo stati per 2 anni con un driver che "non comandava correttamente l'hardware"!
Evidentemente vogliono mantenere le 30XX come fascia media della serie 4000.
Pero' ste prese in giro veramente mi fanno venire voglia di vendere subito la 3070.
StylezZz`
14-10-2022, 11:44
Diciamo un po' stile AMD ''fine wine'' :stordita:
Gigibian
14-10-2022, 11:48
Diciamo un po' stile AMD ''fine wine'' :stordita:
Mmmmm, non tanto.
Con AMD succede che sulle nuove architetture c'è un'ottimizzazione continua dove guadagni qualche punto percentuale ad ogni step, e questo è comprensibile, rientra nella ricerca dell'ottimizzazione.
Ma un gradino di heaviside del +20% dopo 2 anni che sono in giro le vecchie schede... è sintomo o di una strategia specifica o di poca attenzione nello sviluppo dei driver....
craesilo
14-10-2022, 13:06
pacco arrivato da chrono-brt...tutto perfetto
Alekos Panagulis
14-10-2022, 13:44
pacco arrivato da chrono-brt...tutto perfetto
Ma è già arrivata la 4090?
hanno ovviamente atteso l'uscita della serie 4000 per rendere ancora appetibili le 3000
dai huang qualcosa l'ha tirato fuori... :stordita: ---> :eek: ---> :cry:
Ovviamente l'uscita è mirata, chissà da quanto è pronto. E' irritante questa cosa dato che a me ha migliorato molto la situazione, avrebbe fatto comodo ben prima...
nVidia raramente fa uscire driver con aumenti prestazionali, fixa problemi ma aumenti di fps non se ne vedono mai, su questo lato AMD è più cristallina è operativa dato che dove riesce lavora, anche con un occhio alle passate serie, ad aumentare le prestazioni.
Si vede che giacchetta non ci tiene troppo dato che i driver non portano soldi come le serie nuove e costose :)
craesilo
14-10-2022, 14:13
Ma è già arrivata la 4090?
no avevo preso la 60ti
amon.akira
14-10-2022, 14:21
No sbagliato. Il DLAA e' il DLSS meno l'upscaling.
esatto, fullres
Alekos Panagulis
14-10-2022, 14:24
no avevo preso la 60ti
Ah ok. Domanda non polemica: come mai hai quell'avatar?
Da sviluppatore embedded con qualche anno sulle spalle, per definizione se un driver dopo 2 anni migliora del +20%, non è che hanno "sviluppato qualcosa di più performante" con questo nuovo driver, ma il punto è che siamo stati per 2 anni con un driver che "non comandava correttamente l'hardware"!
Evidentemente vogliono mantenere le 30XX come fascia media della serie 4000.
Pero' ste prese in giro veramente mi fanno venire voglia di vendere subito la 3070.Non ha senso, visto che ACV da un bel pezzo gli faceva fare brutta figura nei confronti di AMD.
Nei driver delle GPU possono esserci problemi collegati se si va a toccare un pelo, poi bisogna ricordarsi che Nvidia in DX-12 era dietro ad AMD, in seguito molto è stato risolto dalla forza bruta.
È un po' come l'overhead di AMD in DX-11, recentemente AMD ha rilasciato un driver che ancora ottimizzava la situazione DX-11, che comprendeva la brutta situazione dei giochi basati su UE-4.
L'insieme creava una stora dove AMD andava particolarmente scarsa in DX-11 anche perché andava meglio in DX-12, mentre Nvidia era più prestante in DX-11 anche perché non lo era molto in DX-12.
Io la leggo così, pensare che Nvidia si pesta i piedi malamente tenendo basse le perf. in ACV è davvero dura, non trovi?
archaon89x
14-10-2022, 17:28
Questi i dati forniti da nvidia a 1440p:
https://abload.de/img/geforce-rtx-30-serieskqfwj.png
Non male...
hanno anche tolto il limitatore lhr
https://www.techpowerup.com/299838/nvidia-removes-hashrate-limiter-for-rtx-30-series-lhr-gpus-in-the-latest-driver
può darsi che alla fine un pò limitava anche in game?
davide155
14-10-2022, 17:39
Ah ok. Domanda non polemica: come mai hai quell'avatar?Perché lui è davide :D
Thunder-74
14-10-2022, 18:47
Da sviluppatore embedded con qualche anno sulle spalle, per definizione se un driver dopo 2 anni migliora del +20%, non è che hanno "sviluppato qualcosa di più performante" con questo nuovo driver, ma il punto è che siamo stati per 2 anni con un driver che "non comandava correttamente l'hardware"!
Evidentemente vogliono mantenere le 30XX come fascia media della serie 4000.
Pero' ste prese in giro veramente mi fanno venire voglia di vendere subito la 3070.
per me è tutto voluto. Ricordo quando AMD se ne uscì con dei drivers che aumentavano le prestazioni. Una settimana dopo nVidia fece lo stesso per mantenere il margine sui modelli AMD. Fu eclatante..
davide155
14-10-2022, 19:12
Ed anche tu :)No, uno dei prodigeek si chiama davide veramente.
davide155
14-10-2022, 19:13
per me è tutto voluto. Ricordo quando AMD se ne uscì con dei drivers che aumentavano le prestazioni. Una settimana dopo nVidia fece lo stesso per mantenere il margine sui modelli AMD. Fu eclatante..La famosa resizable bar
https://i.imgur.com/13T57eql.png
Ecco ho fatto un piccolo update.
pheasant_killer
15-10-2022, 06:32
Ovviamente l'uscita è mirata, chissà da quanto è pronto. E' irritante questa cosa dato che a me ha migliorato molto la situazione, avrebbe fatto comodo ben prima...
nVidia raramente fa uscire driver con aumenti prestazionali, fixa problemi ma aumenti di fps non se ne vedono mai, su questo lato AMD è più cristallina è operativa dato che dove riesce lavora, anche con un occhio alle passate serie, ad aumentare le prestazioni.
Si vede che giacchetta non ci tiene troppo dato che i driver non portano soldi come le serie nuove e costose :)
Lo fanno solo ed esclusivamente per mantenere il primato nei confronti della concorrenza, non sono estranei a questo tipo di pratiche. la storia del "ti esco lo shader ottimizzato" e solo un imbellettamento da mettere nel blog :asd:
mutatis mutandis: la scheda da 12.1 gigawatt ritirata dal mercato mostra eloquentemente il quadro di presa per i fornelli (di casa huang) perenne
craesilo
15-10-2022, 07:22
Ah ok. Domanda non polemica: come mai hai quell'avatar?
:facciaprodigio:
sertopica
15-10-2022, 08:48
Fix per la mappa corrottta in cyberpunk: https://nvidia.custhelp.com/app/answers/detail/a_id/5400/
Alternativamente si puo' attendere l'hotfix.
davide155
15-10-2022, 11:26
Provato Scorn con la 3090, in 4k dldsr non scende mai sotto i 130fps.
Gioco di altra categoria. Level design di altissimo livello, atmosfera superlativa.
Fix per la mappa corrottta in cyberpunk: https://nvidia.custhelp.com/app/answers/detail/a_id/5400/
Alternativamente si puo' attendere l'hotfix.
grazie senza mappa ero morto :D
Ragazzi ho bisogno di un consiglio, ho appena preso nuova una 3080 Pny Xlr8 Gaming Revel Epic, ieri facendo i primi test ho notato che le temperature durante i giochi non scendono mai sotto i 78 gradi, rimane quasi sempre introno agli 80/82 gradi...
E' allarmante o posso fare delle modifiche?
Oppure anche il reso visto che è nuova...
Pucceddu
15-10-2022, 13:42
Ragazzi ho bisogno di un consiglio, ho appena preso nuova una 3080 Pny Xlr8 Gaming Revel Epic, ieri facendo i primi test ho notato che le temperature durante i giochi non scendono mai sotto i 78 gradi, rimane quasi sempre introno agli 80/82 gradi...
E' allarmante o posso fare delle modifiche?
Oppure anche il reso visto che è nuova...
Con quel case sono normali secondo me.
Ma anche con altri case le temperature sono comunque in quell'ordine
Eddie666
15-10-2022, 14:12
installati stamani i nuovi driver ed effettivamente si nota un sensibile miglioramento generale; adesso la gpu lavora molto più spesso al 100% di utilizzo (giocando in 4k la percentuale di utilizzo prima oscillava dal 97 al 100%), ed in effetti i frame medi sono aumentati.
Certo che fa un pò girare le balle vedere un incremento così consistente grazie a dei driver rilasciata (guarda caso) appena dopo l'uscita della 4090...
Predator_1982
16-10-2022, 09:25
https://i.imgur.com/13T57eql.png
Ecco ho fatto un piccolo update.
questo il mio con la 3080Ti:
https://i.imgur.com/XEN8uJG.jpg
craesilo
16-10-2022, 10:28
Provato Scorn con la 3090, in 4k dldsr non scende mai sotto i 130fps.
Gioco di altra categoria. Level design di altissimo livello, atmosfera superlativa.
gran bella atmosfera ed enigmi carini, spero che da metà in poi arrivi un po di sfida altrimenti è da 6-6,5...
Predator_1982
16-10-2022, 10:56
gran bella atmosfera ed enigmi carini, spero che da metà in poi arrivi un po di sfida altrimenti è da 6-6,5...
a me sta piacendo molto
Eddie666
16-10-2022, 11:41
questi sono due bench fatti al volo con la mia manli rtx 3080; entrambi sono in undervolt, il primo a 1875mhz di frequenza (con cui arriva al power limit di 320w), e l'altro a 1710mhz (intorno ai 240w a seconda di quanto al'pplicazione 3d/gioco sfrutti tutte le features della scheda)
https://i.ibb.co/XFr09Dz/SPEED-WAY-1875mhz.jpg (https://ibb.co/XFr09Dz) https://i.ibb.co/0fgLL2h/SPEED-WAY-1710mhz.jpg (https://ibb.co/0fgLL2h)
davide155
16-10-2022, 20:16
a me sta piacendo moltoPure a me sta piacendo tantissimo. Atmosfera in pieno stile Giger. Se fosse vivo ne sarebbe entusiasta. Ho amato alla follia alien e dune.
Musiche e suoni perfetti. Stilisticamente parlando è un capolavoro.
Grafica in 4k meravigliosa.
Unico neo la macchinosità dei combattimenti, forse voltui così, forse no.
Però è una piccola perla.
È per pochi, pochissimi videogiocatori. Non è un gioco, ma un piccolo viaggio introspettivo che ha molto a che vedere con la vita odierna di noi esseri umani.
Predator_1982
16-10-2022, 20:41
Pure a me sta piacendo tantissimo. Atmosfera in pieno stile Giger. Se fosse vivo ne sarebbe entusiasta. Ho amato alla follia alien e dune.
Musiche e suoni perfetti. Stilisticamente parlando è un capolavoro.
Grafica in 4k meravigliosa.
Unico neo la macchinosità dei combattimenti, forse voltui così, forse no.
Però è una piccola perla.
È per pochi, pochissimi videogiocatori. Non è un gioco, ma un piccolo viaggio introspettivo che ha molto a che vedere con la vita odierna di noi esseri umani.
Vero, concordo. Sto aspettando la 4090 per giocarlo in grande stile (…non che non lo si faccia anche con Ampere :) )
davide155
16-10-2022, 20:47
Vero, concordo. Sto aspettando la 4090 per giocarlo in grande stile (…non che non lo si faccia anche con Ampere :) )In 4k dldsr tutto a stecca non scende sotto i 130fps con la 3090. Su 27 pollici si ha una densità spaventosa di pixel che lo rende spettacolare.
La 4090 su questo gioco userà un decimo del suo potenziale.
Predator_1982
16-10-2022, 20:50
In 4k dldsr tutto a stecca non scende sotto i 130fps con la 3090. Su 27 pollici si ha una densità spaventosa di pixel che lo rende spettacolare.
La 4090 su questo gioco userà un decimo del suo potenziale.
Eh si…infatti l’ho iniziato proprio usando il Dldsr e portandolo a 4K
ginepraio
16-10-2022, 20:56
Ho un problema che mi sta facendo impazzire da circa una settimana.
Nella mia zotac 3080oc il fan stop è settato di default a 55 gradi.
Con fifa 23 , il gioco peggio ottimizzato della storia , non riesco a far evitare che le ventole girino e si stoppino in continuazione , questo mi succede facendo streaming con moonlight sul tablet . Devo settare per non avere stuttering , il blocco degli fps a 60 e questo porta una temperatura continua oscillante da 50 a 60 gradi. Direte di provare una curva personalizzata delle ventole , ed è quello che ho fatto , settata con fan stop a 40 gradi , poi 45 e 60 . In tutti e 3 i casi stesso comportamente delle ventole , probabilmente nei primi 2 casi all avvio delle ventole la gpu si raffredda e torna nel range di temperatura incriminato , nel terzo scalda , supera i 60 gradi e ripartono.
Non vorrei proprio rinunciare al fan stop solo per questo gioco ottimizzato con le chiappe. Qualcuno ha un problema simile?
Ho un problema che mi sta facendo impazzire da circa una settimana.
Nella mia zotac 3080oc il fan stop è settato di default a 55 gradi.
Con fifa 23 , il gioco peggio ottimizzato della storia , non riesco a far evitare che le ventole girino e si stoppino in continuazione , questo mi succede facendo streaming con moonlight sul tablet . Devo settare per non avere stuttering , il blocco degli fps a 60 e questo porta una temperatura continua oscillante da 50 a 60 gradi. Direte di provare una curva personalizzata delle ventole , ed è quello che ho fatto , settata con fan stop a 40 gradi , poi 45 e 60 . In tutti e 3 i casi stesso comportamente delle ventole , probabilmente nei primi 2 casi all avvio delle ventole la gpu si raffredda e torna nel range di temperatura incriminato , nel terzo scalda , supera i 60 gradi e ripartono.
Non vorrei proprio rinunciare al fan stop solo per questo gioco ottimizzato con le chiappe. Qualcuno ha un problema simile?
Stai usando MSI afterburener per le ventole?
Se si, prova ad alzare di qualche grado, (tipo inzia prima con 5°), l'isteresi della temperatura proprio per ridurre le fluttuazioni delle ventole.
ginepraio
16-10-2022, 23:10
Stai usando MSI afterburener per le ventole?
Se si, prova ad alzare di qualche grado, (tipo inzia prima con 5°), l'isteresi della temperatura proprio per ridurre le fluttuazioni delle ventole.
Si uso , afterburner .
Questo è un buon consiglio , effettivamente è un settaggio che non avevo mai preso in considerazione
craesilo
17-10-2022, 08:39
a me sta piacendo molto
più vado avanti e più mi intriga (e per fortuna c'è anche la ''sfida''), direi che i 7-7,5 sono giusti....è sicuramente di nicchia come un layers of fear, se sei appassionato d'arte allora è un giocone, altrimenti è un buon titolo e nulla più
craesilo
18-10-2022, 16:54
iniziato requiem a 1440p high e dlss su quality, per il momento 60 fissi...gioco nvidia cmq, su console non può andare a 60 manco a 1080p medium
FrancoBit
18-10-2022, 18:39
iniziato requiem a 1440p high e dlss su quality, per il momento 60 fissi...gioco nvidia cmq, su console non può andare a 60 manco a 1080p mediumProvato pure io con config pc1 in firma liscio come l'olio, non ho frame counter ma è una gioia x gli occhi. Poi che il gioco in se non mi faccia impazzire è un altro discorso. Ho messo ultra con dlss quality. Non capisco x l HDR dove razzo è l'opzione
Inviato dal mio M2101K9G utilizzando Tapatalk
Cutter90
19-10-2022, 07:47
Provato anche io Requiem. Con la config. in firma faccio dai 55 ai 70 fps nella prima parte tutto ultra e dlss quality. Certo è che in realtà non è granchè considerando che non ha nemmeno il RT. Queste sono performance da gioco in rt. Quando lo implementeranno dovranno ottimizzare per forza perchè cosi non ci siamo
PConly92
19-10-2022, 13:58
ciao a tutti. finalmente dopo anni di ati/amd sono ritornato a nvidia (l'ultima la geforce 6600 agp:old: )
ho preso una manli rtx 3070 nuova con un buon prezzo. per ora mi sto trovando da dio e comunque venendo da una rx 580 il salto è stato impressionante. Il dlss è una figata pazzesca
avete qualche consiglio? :)
(THE REAL) Neo
20-10-2022, 15:16
ciao a tutti. finalmente dopo anni di ati/amd sono ritornato a nvidia (l'ultima la geforce 6600 agp:old: )
ho preso una manli rtx 3070 nuova con un buon prezzo. per ora mi sto trovando da dio e comunque venendo da una rx 580 il salto è stato impressionante. Il dlss è una figata pazzesca
avete qualche consiglio? :)Bentornato in verde!
Un consiglio che merita il tempo "perso" a trovare un buon equilibrio,é sicuramente l'undervolt.
pheasant_killer
20-10-2022, 16:56
Addirittura da cosi tanto tempo :D di che anni parliamo? prima del 2000 avevo una matrox mi pare :)
la 6600 e' del 2004. :fagiano:
mattxx88
20-10-2022, 21:57
Dal nuovo MW2, qualche comparativa in 4k dei supersample
https://i.ibb.co/GTxxnzB/cod-2022-10-20-22-49-20-443.png (https://ibb.co/rs77FDT)
https://i.ibb.co/y4Lg422/cod-2022-XESS.png (https://ibb.co/jJ73Jtt)
https://i.ibb.co/HGf8hwz/cod-2022-DLSS.png (https://ibb.co/CV3GPC7)
https://i.ibb.co/xhmD8XL/cod-2022-NIS.png (https://ibb.co/y0hXBdP)
https://i.ibb.co/mbZ52f3/cod-2022-FSR.png (https://ibb.co/gmqZfkx)
https://i.ibb.co/JkD8mMP/cod-2022-FIDELITY.png (https://ibb.co/WKm7GY1)
Dal nuovo MW2, qualche comparativa in 4k dei supersample
...
https://i.ibb.co/JkD8mMP/cod-2022-FIDELITY.png
Pazzesco il fotorealismo, peccato per il maledetto vizio di mettere riflessi sul pavimento dove assolutamente non devono esistere.
Dal nuovo MW2, qualche comparativa in 4k dei supersample
Trovo che Fidelity e DlSS siano le due meglio riuscite, le altre sono sfocate e blurrose. Fidelity rende un pelo meglio sui mattoni del muro a dx in verticale, ma DLSS rende meglio sui dettagli come foglie e contorni. Le scritte sono un filo meglio in Fidelity, tuttavia visti gli FPS direi DLSS a priori.
mattxx88
21-10-2022, 09:48
Trovo che Fidelity e DlSS siano le due meglio riuscite, le altre sono sfocate e blurrose. Fidelity rende un pelo meglio sui mattoni del muro a dx in verticale, ma DLSS rende meglio sui dettagli come foglie e contorni. Le scritte sono un filo meglio in Fidelity, tuttavia visti gli FPS direi DLSS a priori.
esatto, lapalissiano :D
invece avete idea di cosa sia l'nvidia image scaling? non l'avevo mai visto prima mi pare
sertopica
21-10-2022, 09:57
esatto, lapalissiano :D
invece avete idea di cosa sia l'nvidia image scaling? non l'avevo mai visto prima mi pare
E' in pratica il dlss dei poveri. C'e' sul pannello di controllo nvidia da un bel pezzo ormai.
mattxx88
21-10-2022, 10:01
E' in pratica il dlss dei poveri. C'e' sul pannello di controllo nvidia da un bel pezzo ormai.
lol
quindi sarebbe usabile anche su altri giochi se impostato da pannello driver. prima volta che leggo l'opzione in game
PConly92
21-10-2022, 10:05
Bentornato in verde!
Un consiglio che merita il tempo "perso" a trovare un buon equilibrio,é sicuramente l'undervolt.
grazie. conviene farlo con msi afterburner o altro? con la rx580 l'avevo fatto dal pannello del driver
ray_hunter
21-10-2022, 10:11
Provato anche io Requiem. Con la config. in firma faccio dai 55 ai 70 fps nella prima parte tutto ultra e dlss quality. Certo è che in realtà non è granchè considerando che non ha nemmeno il RT. Queste sono performance da gioco in rt. Quando lo implementeranno dovranno ottimizzare per forza perchè cosi non ci siamo
Come prestazioni è come CP2077 senza RT con tutto al max, compreso Psycho.
Io sinceramente trovo che quello che vedo a video è in linea con le prestazioni.
Va detto però che CP è openworld mentre Requiem no...
Io lo trovo visivamente davvero stupendo
Cutter90
21-10-2022, 11:01
Come prestazioni è come CP2077 senza RT con tutto al max, compreso Psycho.
Io sinceramente trovo che quello che vedo a video è in linea con le prestazioni.
Va detto però che CP è openworld mentre Requiem no...
Io lo trovo visivamente davvero stupendo
Ah dici poco. la complessità anche poligonale è ben altra cosa su cp2077. Oltre che visivamente essere anche superiore. Requiem è un corridoio. Inammissibili tali performance
LEGIOROMANO1983
21-10-2022, 16:30
Ai possessori di 3080,a 4k 60 frame ci si gioca con set tracing attivato?....vedo che tutti la vendono per accaparrarsi la 4090....evidentemente tanto bene non deve andare, altrimenti non me lo spiego
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.