PDA

View Full Version : [Thread Ufficiale] nVidia GB202-GB203 (RTX 5090 - 5080 - 5070TI)


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27

Dono89
31-07-2025, 10:58
Sto cliccando....sulla.Zotac.5080 mi pare una bella bestiola?

I 200€ non sono giustificati, ma non lo sono nemmeno 50€ per una bottiglia di vino mediocre al ristorante.

Non faccio i conti in tasca tua, ma se vogliamo guardare che è il componente principale del pc per chi è qui dentro, io i 200€ sapendo sono no-sense li spenderei comunque.
Come non hanno senso i 2K per la 5090. Ma se uno ci arriva e gli piace, perchè no?

Se vuoi andare al risparmio invece vai di 5070 ti che ha decisamente più senso e forse è l'unica che ha senso di questa gen

dAbOTZ
31-07-2025, 11:04
beh il dlss lo si usa sempre quando si può e il FG se si ha una base di 50 fps idem.
Dipende molto da che giochi fa, ma la 5070 ti gestisce il 4k senza troppo sforzo. Ha dei limiti in Path tracing maxando, quello si.

Secondo me se invece di 4k prende un 1440p UW [dipende se gli piace l'UW] si toglie il pensiero.. poi dipende da che livello di dettagli vuol raggiungere.

edit: è una combo + bilanciata e duratura che sto valutando io stesso come downgrade/upgrade.

Cutter90
31-07-2025, 11:33
Secondo me se invece di 4k prende un 1440p UW [dipende se gli piace l'UW] si toglie il pensiero.. poi dipende da che livello di dettagli vuol raggiungere.

edit: è una combo + bilanciata e duratura che sto valutando io stesso come downgrade/upgrade.

Se deve giocare su scrivania un 2k va benissimo in effettio, fino al 27. Oltre un 4k sarebbe più indicato a patto di salire di pollici e/o andare su tv

fabryx73
31-07-2025, 11:36
Zotac Solid Core .. mi pare abbiano un ottimo PCB,quasi al pari di Asus e la dissipazione dovrebbe essere decente ( ho posseduto per qualche giorno una 5070ti Solid SFF ma scaldava parecchio per via del dissi piccolino e l'ho resa..)
Non ho problemi ad alloggiare una 3slot da 55mm
Ocio che la solid core ha un pcb reference....controlla prima di andare...
Quelle con pcb custom sicuro sono ,infinity, gaming e solid normale.
La solid core è quella dual slot, quindi dissipatore meno potente....e fasi di alimentazione meno buoni...
Te lo dico perché un amico l'ha presa e ha fatto cambio..
Con un normale 3.5 slot

ZB
31-07-2025, 12:07
Ma quella che ho visto su bpm è una Solid.Core da 3 slot, dici che sia il modello ref ugualmente?
PS..ho visto adesso che ci sono delle differenze di ingombro anche se hanno entrambe 3 slot...
Quelle che dici tu non mi stanno nel case perché troppo lunghe..Anche le SC hanno icestorm 3.0 cmq..Dici che è meglio lasciar stare? Scaldano troppo?

peppewan
31-07-2025, 13:09
Buongiorno a tutti, da utente che è terribilmente indeciso se prendere ora la 5070ti o aspettare le super (tranquilli non voglio parlare di questo, lo avete ampiamente sviscerato in precedenza), faccio la domanda da 1 milione di dollari: come cambieranno i prezzi con i dazi? Ormai comprare qualunque cosa è come giocare in borsa, maledizione

Inviato dal mio SM-A528B utilizzando Tapatalk

scatolino
31-07-2025, 13:15
Non so se succede anche a voi, cazzeggiando con la App Amazon, dal mio smartphone, vedo 5080 al 50% di sconto, una Tuf a 800 euro... Poi vai su "venduto da" e leggi "Inviatemi numero ordine e email" ma hanno Hackerato il sito??

dAbOTZ
31-07-2025, 13:23
No, è puramente una truffa. Segnalato, per quel che serve.

scatolino
31-07-2025, 13:24
No, è puramente una truffa. Segnalato, per quel che serve.

Pure su Amazon...

FvR 93
31-07-2025, 13:27
Non so se succede anche a voi, cazzeggiando con la App Amazon, dal mio smartphone, vedo 5080 al 50% di sconto, una Tuf a 800 euro... Poi vai su "venduto da" e leggi "Inviatemi numero ordine e email" ma hanno Hackerato il sito??

Gli scammer si sono moltiplicati a dismisura negli ultimi due anni. È già successo qualche volta su Amazon, hanno bisogno di un po' di tempo per verificare e ripulire. L'importante è filtrare con la spunta del Prime e si va sul sicuro.

Sulla questione 70ti vs 80, mi associo al ragionamento di Dono89. La differenza di prezzo (che prima era anche maggiore) non giustifica il 15% di divario prestazionale e la stessa quantità di vram. Essendo però il componente principale di un pc da gaming, capisco e approvo la scelta della 5080.

fabryx73
31-07-2025, 14:15
Ma quella che ho visto su bpm è una Solid.Core da 3 slot, dici che sia il modello ref ugualmente?
PS..ho visto adesso che ci sono delle differenze di ingombro anche se hanno entrambe 3 slot...
Quelle che dici tu non mi stanno nel case perché troppo lunghe..Anche le SC hanno icestorm 3.0 cmq..Dici che è meglio lasciar stare? Scaldano troppo?

Allora vai tranquillo per la qualità in se.
Le solid core sono le base base,2 slot (circa...2.5) e dissipatore leggermente minore . Dovrebbero avere ( 99% ... L'ha avuta un amico e la presa per sbaglio....posto nel case ne aveva quindi l'ha cambiata) il pcb piccolino.... Con meno fasi.... Se non l'ha OC a manetta va benissimo.
La solid normale,gaming e infinity hanno lo stesso pcb più grosso e con più fasi di alimentazione. La gaming e la infinity sono , diciamo,golden sample, riesci a tirarla un po' di più rispetto alla normalità. Tutte e 3 sono 3.5 slot. Più grosse , più pesanti (dissi maggiorato) e pistoncino nella confezione che aiuta a tenere la scheda.

Se hai poco spazio vai su core... d'altronde se non ci sta'...

Ah...il powerlimit non so se la core lo ha a 360 oppure 400watt come le altre...



Ma la Inno3D GeForce RTX 5080 iChill X3 o la zotac amp extreme ? Costano poco più ma per oc e dissipazione stai da dio... disponibili sempre lì

ZB
31-07-2025, 14:32
Edit..
Ho trovato ste immagini, è un buon pcb?
https://www.reddit.com/r/watercooling/comments/1kde0th/zotac_5080_solid_core_teardown/?tl=it

scatolino
31-07-2025, 15:32
No, è puramente una truffa. Segnalato, per quel che serve.

Hanno già sistemato... :D

dAbOTZ
31-07-2025, 15:37
Aaah meno male, è così confortante vedere una TUF di nuovo a 1600€ :stordita:

Dono89
31-07-2025, 15:43
Edit..
Ho trovato ste immagini, è un buon pcb?
https://www.reddit.com/r/watercooling/comments/1kde0th/zotac_5080_solid_core_teardown/?tl=it

Ha 17 fasi, di cui probabilmente 3 saranno sulle mem. Ha le stesse fasi (come numero) della tuf, direi che va benone. Inoltre sono distribuite e non su mono lato. Non è male per niente. Tanto sarai al max sui 300w in game, ma anche meno.

Sul dissi, non è il massimo, ma se la trovi a poco vai.

Detto questo, se a 20€ in più puoi accedere alla amp, vai diretto

ZB
31-07-2025, 15:57
Eh, la Amp costa 150€ in più e non ci sta per lunghezza:rolleyes:

fabryx73
31-07-2025, 16:41
Eh, la Amp costa 150€ in più e non ci sta per lunghezza:rolleyes:

ha ragione Dono89! convinto dal mio amico che me ne aveva parlato avesse un pcb corto (tipo ventus per intenderci)
invece no....sembra più che decente.
se non ha powerlimit bloccato (dovresti flashare il bios....semplice ma.....:mc: )
sei a cavallo.... purtroppo se vuoi un dual slot questo c'è....il dissi non è il massimo come temp....
(io avrei speso 150 per amp extreme :D ,li ti divertivi,magari aveva il powerlimit a 450watt come la astral) però prendila pure,e dopo scrivi pareri mi raccomando!

ZB
31-07-2025, 16:45
E'già tantissimo per me, forse troppo ma deve bastarmi per tanto tempo...
Ora ovviamente bpm è frezzato... :muro:

LkMsWb
31-07-2025, 16:49
E'già tantissimo per me, forse troppo ma deve bastarmi per tanto tempo...
Ora ovviamente bpm è frezzato... :muro:

BPM ha memory leak sui browser chromium in questo periodo (almeno, lo ha nei 3 che ho provato), suggerisco Firefox se dovete navigarci per un po' ;)

Lo Straniero Misterioso
31-07-2025, 17:23
24 gb sulla 5080 imho sono inutili...20 gb andrebbe benissimo.
16 sei al limite.... Però con nuove features che dovrebbero fa scendere un pochino il consumo...


20GB di vram ddr7?
Intendi mettendo 4 moduli da 2GB e 4 moduli da 3GB?

L'idea è interessante, ma non sono sicuro si possa fare. Non viene fuori un po' di casino nella gestione?

A me l'idea di non poter caricare le texture moddate su giochi tipo Fallout, Cyberpunk, Mechwarrior (e vari altri) darebbe molto fastidio su una scheda da 1200 euro!


Buongiorno a tutti, da utente che è terribilmente indeciso se prendere ora la 5070ti o aspettare le super (tranquilli non voglio parlare di questo, lo avete ampiamente sviscerato in precedenza), faccio la domanda da 1 milione di dollari: come cambieranno i prezzi con i dazi? Ormai comprare qualunque cosa è come giocare in borsa, maledizione

Inviato dal mio SM-A528B utilizzando Tapatalk

Beh, sono gli americani che pagheranno il 15%, sul nostro prosecco. Noi europei le VGA dovremmo continuare a pagarle come prima...

...ma non sono un fine economista e potrei tranquillamente sbagliarmi! :)

Dono89
31-07-2025, 17:38
20GB di vram ddr7?
Intendi mettendo 4 moduli da 2GB e 4 moduli da 3GB?

L'idea è interessante, ma non sono sicuro si possa fare. Non viene fuori un po' di casino nella gestione?

Ma no :D

Ogni modulo lo associ a 32bit di bus, la 5080 ne ha 8, ha 256bit e ogni modulo di mem ha 2gb.

Se vuoi 20gb, l'unica è espandere il bus a 320bit (cosa che sarebbe dovuta esser dall'inizio, su questo concordo che risolvevi tutto).

Diciamo che però se avessero fatto così la 5080 super sarebbe costata ancora di più ed avrebbe avuto 30gb...avevano già in cantiere la super con i 3gb e quindi non aveva senso avere un bus da 320 bit con 10 moduli.

Io capisco che la mem più ne si ha e meglio è, ma non c'è davvero nulla di cui preoccuparsi tra le tech varie. 16gb oggi sono diversi dai 16gb di ieri



EDIT: Usciti nuovi driver
https://www.nvidia.com/it-it/drivers/details/251282/

Lo Straniero Misterioso
31-07-2025, 18:34
Non lo so, per me costa troppo la 5080 per avere solo 16GB. Sulle altre schede ci sta tutto il ragionamento "sì ma 16 dopotutto bastano salvo rari casi" - ma su una scheda che costa come la vecchia TitanX, no.

Per 1200 euro ci devo star dentro anche nei casi rari.

Io adesso sto rigiocando Cyberpunk con la nuova patch 2.3, ho buttato su delle texture upscalate a 4k con l'IA prese da Nexus Mods. La differenza rispetto a quelle di default si vede.

https://gpuz.techpowerup.com/25/07/31/mb4.png

Ora, è un caso particolare? Sì.
Avrei potuto usare le texture 2k? Sì.

Però che cavolo, è la scheda corrente la 5080. Non mi sembra ragionevole che ci voglia una scheda prosumer come la 90 per poterlo fare serenamente.

Dono89
31-07-2025, 18:48
Non è un caso particolare, è un esercizio di stile volto a saturare la memoria.

Se prendi un gioco, qualunque esso sia, non ti avvicini nemmeno.

è come dire che su flight simulator fai 70fps (o quanti ne fa) e quindi non arrivi a 100 in game

Lo Straniero Misterioso
31-07-2025, 18:57
Non è un esercizio di stile: le texture di base sono quel che sono perché ci si pone l'obiettivo di stare negli 8GB.

Inizia ad esserci qualche gioco che non sta negli 8GB perché effettivamente comincia a stare stretto.

Ma se usi una buona mod la differenza visiva c'è. Poi possiamo discutere sulla differenza fra le 2k e le 4k, probabilmente il gioco non vale la candela...

...ma se hai una fucking 5080 dovresti poterlo fare lo stesso, IMHO. Le schede enthusiast sono fatte apposta.

dAbOTZ
31-07-2025, 19:42
Verificare se un gioco satura i 16GB con una GPU da 32 GB è tecnicamente impossibile :fagiano:

Ogni gioco prealloca quanto più riesce, e adatta lo streaming degli asset a seconda delle massime risorse a disposizione. Se ha a disposizione solo 16GB, cerca a tutti i costi di farti stare dentro quei 16GB, eventualmente facendo offloading degli asset su RAM di sistema [con conseguente calo di prestazioni]. Per limitare arbitrariamente la quantità di VRAM disponibile ci si dovrebbe riscrivere i driver video.

Quei 23GB non sono la minima VRAM necessaria per far girare CP con quel texture pack, sono quelli che il gioco ti ha allocato. Un esempio di over budget realistico su una scheda con 16GB di VRAM con il full texture pack 4K AI-scaled è questo:

https://i.ibb.co/4g9k2J3K/Cyberpunk2077-2025-07-31-20-20-32-403.png

FvR 93
31-07-2025, 19:45
Purtroppo i nuovi driver non hanno riportato la capacità di Overclock al livelli pre-575. Quindi i più maliziosi potrebbero pensare che il margine delle super possa essere ricavato anche da questo (vedendo i pl):read:

dAbOTZ
31-07-2025, 20:10
580.88

Known Issues

- Cyberpunk 2077 will crash when using Photo Mode to take a screenshot with path tracing enabled [5076545]


E niente, 'sto photo mode gli sta proprio sulle balle :D

Lo Straniero Misterioso
31-07-2025, 20:28
Ogni gioco prealloca quanto più riesce, e adatta lo streaming degli asset a seconda delle massime risorse a disposizione.

Ha senso in effetti.

OrazioOC
31-07-2025, 21:36
Purtroppo i nuovi driver non hanno riportato la capacità di Overclock al livelli pre-575. Quindi i più maliziosi potrebbero pensare che il margine delle super possa essere ricavato anche da questo (vedendo i pl):read:

Eh beh quei 50 mhz in più in overclock cambiano ti fanno proprio svoltare. :stordita:

Cutter90
31-07-2025, 21:38
Non lo so, per me costa troppo la 5080 per avere solo 16GB. Sulle altre schede ci sta tutto il ragionamento "sì ma 16 dopotutto bastano salvo rari casi" - ma su una scheda che costa come la vecchia TitanX, no.

Per 1200 euro ci devo star dentro anche nei casi rari.

Io adesso sto rigiocando Cyberpunk con la nuova patch 2.3, ho buttato su delle texture upscalate a 4k con l'IA prese da Nexus Mods. La differenza rispetto a quelle di default si vede.

https://gpuz.techpowerup.com/25/07/31/mb4.png

Ora, è un caso particolare? Sì.
Avrei potuto usare le texture 2k? Sì.

Però che cavolo, è la scheda corrente la 5080. Non mi sembra ragionevole che ci voglia una scheda prosumer come la 90 per poterlo fare serenamente.

Si ma usando una mod vai a fare un discorso che esula dallo stock.
Allora potrei metterlo in 8k e lamentarmi che consuma troppa ram...
Ps come ti hanno già fatto notare è ram allocata e non "quella che serve"

Eddie666
01-08-2025, 08:18
Salve a tutti. da un paio di giorni sono entrato in possesso di una MSI ventus rtx 5090 OC, e sto riscontrando un problema che, presumo, sia legato all'alimentazione.
Premetto che prima avevo una 4090, alimentata da un seasonic Vertec gx 1000 con cavo 12pwr dedicato: prima di installare la 5090 ho fatto una disinstallazione tramite DDU (in modalità provvisoria), montata la 5090 e il pc è partito al primo colpo: ho effettuato qualche bench e mi sembra che i risultati siano in linea.

https://www.3dmark.com/3dm/138881662

https://www.3dmark.com/3dm/138881492

Ho poi provato qualche gioco al volo (cyberpunk, SpiderMan2,) e non ho avuto nessun problema; praticamente tutto è andato liscio come l'olio fin da subito.
ho spento il pc e l'ho riacceso dopo qualche ora: ancora tutto ok, nessun problema, tutto funzionava come prima.
Quando invece sono andato a accenderlo il giorno dopo schermo nero: il pc faceva regolarmente il boot, ma a schermo non compariva nulla: ho capito che aveva switchato sull'integrata intel, ed infatti la 5090 era scomparsa sia da bios che dalle periferiche di windows 11. dato che il giorno prima aveva funzionato perfettamente ho pensato a qualche problema legato all'alimebtazione, per cui ho controllato il corretto inserimento dei cavi lato gpu e psu, ma tutto ok.
avrei voluto fare una prova di boot col polpo in dotazione, ma il mio alimentatore ha solo 3 pcie 8pin (colendo potrei comprare un adattatore da 8pin cpu a 8pin gpu), per cui nulla.
Solo dopo aver smontato e reinserito la scheda il pc è partito come nulla fosse, e ha funzionato senza problemi come il giorno precedente.
a questo punto penso che il problema possa essere il vecchio cavo 12pin pwr (so che seasonic ne ha rilasciato uno aggiornato proprio per la serie 5000), e sarei intenzionato ad acquistarlo, ma vorrei avere qualche conferma anche qua se mi sto muovendo nella direzione giusta o, se nel caso, abbiate qualche altro suggerimento/prova da effettuare.
Grazie!

Cutter90
01-08-2025, 08:28
Salve a tutti. da un paio di giorni sono entrato in possesso di una MSI ventus rtx 5090 OC, e sto riscontrando un problema che, presumo, sia legato all'alimentazione.
Premetto che prima avevo una 4090, alimentata da un seasonic Vertec gx 1000 con cavo 12pwr dedicato: prima di installare la 5090 ho fatto una disinstallazione tramite DDU (in modalità provvisoria), montata la 5090 e il pc è partito al primo colpo: ho effettuato qualche bench e mi sembra che i risultati siano in linea.

https://www.3dmark.com/3dm/138881662

https://www.3dmark.com/3dm/138881492

Ho poi provato qualche gioco al volo (cyberpunk, SpiderMan2,) e non ho avuto nessun problema; praticamente tutto è andato liscio come l'olio fin da subito.
ho spento il pc e l'ho riacceso dopo qualche ora: ancora tutto ok, nessun problema, tutto funzionava come prima.
Quando invece sono andato a accenderlo il giorno dopo schermo nero: il pc faceva regolarmente il boot, ma a schermo non compariva nulla: ho capito che aveva switchato sull'integrata intel, ed infatti la 5090 era scomparsa sia da bios che dalle periferiche di windows 11. dato che il giorno prima aveva funzionato perfettamente ho pensato a qualche problema legato all'alimebtazione, per cui ho controllato il corretto inserimento dei cavi lato gpu e psu, ma tutto ok.
avrei voluto fare una prova di boot col polpo in dotazione, ma il mio alimentatore ha solo 3 pcie 8pin (colendo potrei comprare un adattatore da 8pin cpu a 8pin gpu), per cui nulla.
Solo dopo aver smontato e reinserito la scheda il pc è partito come nulla fosse, e ha funzionato senza problemi come il giorno precedente.
a questo punto penso che il problema possa essere il vecchio cavo 12pin pwr (so che seasonic ne ha rilasciato uno aggiornato proprio per la serie 5000), e sarei intenzionato ad acquistarlo, ma vorrei avere qualche conferma anche qua se mi sto muovendo nella direzione giusta o, se nel caso, abbiate qualche altro suggerimento/prova da effettuare.
Grazie!

Usi per caso un cavo Raiser per metterla in verticale? Diversamente prova da bios a metterla in 5.0 forzandola e non in "Auto". E' nel menù di gestione PCI_e. AH, nel caso non sia 5.0 la tua mobo, allora metti 4.0. Ovviamente aggiorna il Bios

Il cavo "vecchio" funziona alla perfezione con la 5090 in teoria.

aled1974
01-08-2025, 08:29
per quanto improbabile, stato batteria tampone della mobo? Se scarica potrebbe perdere i settaggi e se di default (come sempre) è impostata l'integrata...

sempre improbabile ma, quanti slot pciex ha la tua mobo? potresti provare la gpu sull'altro slot, se presente e vedere se il comportamento è analogo

idem ma, hai provato a cambiare cavo video? O quanto meno a boot avviato e schermo nero a scollegarlo e ricollegarlo alla gpu?


se tutte queste cose improbabili resteranno tali allora è proprio qualcosa legato a
- psu
- cavi alimentazione psu--->gpu
- gpu

:mano:

ciao ciao

Eddie666
01-08-2025, 10:17
Usi per caso un cavo Raiser per metterla in verticale? Diversamente prova da bios a metterla in 5.0 forzandola e non in "Auto". E' nel menù di gestione PCI_e. AH, nel caso non sia 5.0 la tua mobo, allora metti 4.0. Ovviamente aggiorna il Bios

Il cavo "vecchio" funziona alla perfezione con la 5090 in teoria.

per quanto improbabile, stato batteria tampone della mobo? Se scarica potrebbe perdere i settaggi e se di default (come sempre) è impostata l'integrata...

sempre improbabile ma, quanti slot pciex ha la tua mobo? potresti provare la gpu sull'altro slot, se presente e vedere se il comportamento è analogo

idem ma, hai provato a cambiare cavo video? O quanto meno a boot avviato e schermo nero a scollegarlo e ricollegarlo alla gpu?


se tutte queste cose improbabili resteranno tali allora è proprio qualcosa legato a
- psu
- cavi alimentazione psu--->gpu
- gpu

:mano:

ciao ciao

la scheda video è collegata alla mobo direttamente, senza riser: già prima di installarla avevo settato nel bios pcie 4.0.

la batteria tampone è nuova, e fino ad oggi non ho mai avuto problemi di perdita di impostazioni di bios.

Le prove di cambiare il cavo e/o ricollegarlo al pc le ho fatte più volte, ma non hanno mai dato alcun risultato

ad ogni modo per tagliare la testa al toro ho ordinato direttamente dalla seasonic il nuovo cavo; nel frattempo vedremo se il problema si ripresenterà

Cutter90
01-08-2025, 10:28
la scheda video è collegata alla mobo direttamente, senza riser: già prima di installarla avevo settato nel bios pcie 4.0.

la batteria tampone è nuova, e fino ad oggi non ho mai avuto problemi di perdita di impostazioni di bios.

Le prove di cambiare il cavo e/o ricollegarlo al pc le ho fatte più volte, ma non hanno mai dato alcun risultato

ad ogni modo per tagliare la testa al toro ho ordinato direttamente dalla seasonic il nuovo cavo; nel frattempo vedremo se il problema si ripresenterà

Bios aggiornato?

Eddie666
01-08-2025, 10:50
Bios aggiornato?

della scheda video o della mobo? ad ogni mobo per la mobo si, ultima release

Lo Straniero Misterioso
01-08-2025, 11:49
Io mi farei mandare il cavo aggiornato: non è detto che risolva il problema, ma sono 10 euro che io spenderei volentieri a prescindere.

https://seasonic.com/it/12vhpwr-cable

Costa una decina di euro, anche su Amazon.

EDIT: ok ho letto dopo aver scritto che lo hai già fatto, come non detto allora!

marbasso
01-08-2025, 12:23
Ho letto che i nuovi driver sono il GOAT sul 3dmark, è vero?

Dono89
01-08-2025, 13:51
Ho letto che i nuovi driver sono il GOAT sul 3dmark, è vero?


Su 5090 qualche punto in più c'è. Su 5080 una manciata, davvero cosa da poco nel margine di errore

marbasso
01-08-2025, 14:18
Su 5090 qualche punto in più c'è. Su 5080 una manciata, davvero cosa da poco nel margine di errore

Ma che ciofeca che sono diventati. Passan più tempo a risolvere i problemi che ad aumentare le performance. Ormai la situazione si è totalmente ribaltata.
Ad amd mancano solo grosse performance e dominerà ogni settore se gli altri non si danno una mossa.

scatolino
01-08-2025, 17:15
Nuovo driver ufficiale: 580.88.

FvR 93
01-08-2025, 18:15
Io ho notato qualcosa di profondamente sbagliato negli ultimi driver, prima di condividere però informazioni errate li installerò di nuovo e rifarò tutti i test. Perché lo stesso "problema" che sto notando non è in un singolo gioco ma in tutti i giochi della suite di test. Spero sia un'installazione andata male (ma eseguita impeccabilmente come sempre)

scatolino
01-08-2025, 18:18
Io ho notato qualcosa di profondamente sbagliato negli ultimi driver, prima di condividere però informazioni errate li installerò di nuovo e rifarò tutti i test. Perché lo stesso "problema" che sto notando non è in un singolo gioco ma in tutti i giochi della suite di test. Spero sia un'installazione andata male (ma eseguita impeccabilmente come sempre)

Personalmente li ho "dovuti" installare dato che hanno fixato uno sfarfallio fastidioso, in HDR, con il mio monitor LG, vediamo come vanno.

FvR 93
01-08-2025, 18:26
Personalmente li ho "dovuti" installare dato che hanno fixato uno sfarfallio fastidioso, in HDR, con il mio monitor LG, vediamo come vanno.

Io di solito faccio dei video-comparazione per il canale youtube, ieri e oggi ho fatto tutte le registrazioni ma c'è una differenza abissale. Prima di condividere informazioni potenzialmente sbagliate però voglio reinstallarli. TUTTA la suite di test presenta lo stesso difetto. Registrazioni fatte tutte il 31/7 e il 1/8, stesso hardware, stesso windows, stesso procedimento (come sono solito fare standardizzo ogni procedura) ma noto discrepanze ben oltre il margine di errore. Vi tengo aggiornati, spero sia solamente un'installazione andata "male". Intanto li scarico nuovamente :mbe:

fabryx73
01-08-2025, 18:42
Nuovo driver ufficiale: 580.88.

Stai scherzando? Sono usciti ieri ..... Un altro ancora? Ma cosa diamine (vorrei dire un'altra cosa ma preferisco non farmi bannare) stanno combinando?


Io di solito faccio dei video-comparazione per il canale youtube, ieri e oggi ho fatto tutte le registrazioni ma c'è una differenza abissale. Prima di condividere informazioni potenzialmente sbagliate però voglio reinstallarli. TUTTA la suite di test presenta lo stesso difetto. Registrazioni fatte tutte il 31/7 e il 1/8, stesso hardware, stesso windows, stesso procedimento (come sono solito fare standardizzo ogni procedura) ma noto discrepanze ben oltre il margine di errore. Vi tengo aggiornati, spero sia solamente un'installazione andata "male". Intanto li scarico nuovamente :mbe:

Tienici informati.... Visto che su alcune cose sei più esperto di molti di noi.... Ma scusami questo comportamento strano, te lo danno con quelli nuovi di ieri o quelli nuovi di oggi? :D :D :D

dAbOTZ
01-08-2025, 18:55
Mboh, appena messi sulla cavia pc2 con la 3060Ti e non sto avendo grane.

pc1 è pronto a prendere per il culo il fratello minore se qualcosa va storto :stordita:

FvR 93
01-08-2025, 19:05
Stai scherzando? Sono usciti ieri ..... Un altro ancora? Ma cosa diamine (vorrei dire un'altra cosa ma preferisco non farmi bannare) stanno combinando?




Tienici informati.... Visto che su alcune cose sei più esperto di molti di noi.... Ma scusami questo comportamento strano, te lo danno con quelli nuovi di ieri o quelli nuovi di oggi? :D :D :D

Parlo dei 580.88 non penso siano uscite due versioni in due giorni ma ormai non mi sorprendo di nulla. Comunque il problema principale è l'inconsistenza del frametime. Non me ne sarei accorto senza guardare con attenzione i grafici di capframex e relativi risultati.

Ps: non mi ritengo per nulla un esperto, solo un appassionato :D

EDIT:

I 580.88 sono safe, tranquillamente installabili. Il piccolo bug che ho avuto l'ho risolto reinstallando (due volte, purtroppo) i driver. Non incolpo qualcosa in particolare però affinché si ripristinassero le prestazioni sugli 1% e 0.2% lows la seconda reinstallazione l'ho effettuata senza Nvidia App e con la versione precedente di DDU (18.1.2.2, mentre il bug l'ho avuto con la 18.1.2.3 ma ritengo improbabilissimo sia colpa sua). In pratica ho fatto un custom .exe con NVCleanInstall.

Premetto, ho sempre tenuto l'App installata, mi ci sono sempre trovato bene, non sono uno dei suoi tanti hater e le procedure di installazione/disinstallazione le ho sempre eseguite da manuale. Non so cosa è successo ma per fortuna è rientrato tutto.

EDIT2: Nessun problema installando la Nvidia App successivamente all'installazione Driver.

fabryx73
02-08-2025, 00:30
.........

Come testarlo? A parte se hai benchato qualche gioco precedente dove ti dice i minimi...e lo rifai con i nuovi driver?
Un po' difficile da testare normalmente....

Eddie666
02-08-2025, 07:58
Update sulla mia situazione: ad oggi non ho più avuto alcun problema, quindi sono sempre più propenso nel pensare che la problematica sia stata causata dal cavo di alimentazione che non faceva perfettamente contatto (ho comunque verificato lato alimentatore e lato scheda, e i connettori sono perfetti): ho letto che il nuovo cavo 12V-2×6 Cable (quello che ho ordinato da seasonic) ha la lunghezza dei pin interni leggermente differenti rispetto alla prima versione, per cui dovrei evitare problemi futuri......ao almeno lo spero :fagiano:
per il resto la scheda va che è una bomba, mi sembra anche abbastanza silenziosa, e come temperature al momento ho visto max 76° con ventole al 65%....vorrei provare a fare un pò di undervolt, ma sembra che il solito metodo della curva con MSI afterburner non funzioni (o meglio, il voltaggio cala al livello impostato, ma le frequenze non corrispondono a quanto settato, ma sono sempre più basse di circa 300-400mhz)....voi che metolodgia usate per undervoltare?
Grazie!

FvR 93
02-08-2025, 08:40
Come testarlo? A parte se hai benchato qualche gioco precedente dove ti dice i minimi...e lo rifai con i nuovi driver?
Un po' difficile da testare normalmente....

Si tengo sotto traccia i vari percentili di ogni test che faccio

infatti avevo scritto in un messaggio precedente
Non me ne sarei accorto senza guardare con attenzione i grafici di capframex e relativi risultati.

Esagerao
02-08-2025, 10:18
Intanto segnalo che a partire dai 577.00 il problema dei colori verdi @4k 12bit ycbdr444 è stato risolto... ho riprovato quasi per sbaglio e ora sono a posto.
Inoltre ho piacevolmente riscontrato boot istantaneo dopo le schermate di avvio di bios, l'ultima volta lo avevo visto con la 4080s.
Ieri sera poi ho messo i 580.88, i profli undervolt li tiene senza crash, nel weekend farò prove estese.

Secondo me, benchmark permettendo, i drivers stanno diventando più maturi in queste ultime release.

FvR 93
02-08-2025, 10:41
Intanto segnalo che a partire dai 577.00 il problema dei colori verdi @4k 12bit ycbdr444 è stato risolto... ho riprovato quasi per sbaglio e ora sono a posto.
Inoltre ho piacevolmente riscontrato boot istantaneo dopo le schermate di avvio di bios, l'ultima volta lo avevo visto con la 4080s.
Ieri sera poi ho messo i 580.88, i profli undervolt li tiene senza crash, nel weekend farò prove estese.

Secondo me, benchmark permettendo, i drivers stanno diventando più maturi in queste ultime release.

Beh, tra un po' siamo all'uscita delle super. Alla buon'ora mi verrebbe da dire :D

Ma anche prima la VRAM in idle downlclockava a soli 50MHz? :mbe:

dAbOTZ
02-08-2025, 13:50
50.6Mhz coi 576.88, yep.

FvR 93
04-08-2025, 19:32
Se vi può interessare:

https://i.ibb.co/ynTy1kzk/580-88.jpg (https://youtu.be/i71IzryyIv8)

fabryx73
04-08-2025, 19:44
Se vi può interessare:

https://i.ibb.co/ynTy1kzk/580-88.jpg (https://youtu.be/i71IzryyIv8)

Molto interessante! Complimenti.
Sembrerebbe che a parte qualche gioco con un leggero miglioramento, la media totale però perde qualche punto.... Malino direi

FvR 93
04-08-2025, 21:22
Molto interessante! Complimenti.
Sembrerebbe che a parte qualche gioco con un leggero miglioramento, la media totale però perde qualche punto.... Malino direi

Si stanno palesemente concentrando molto sul bugfixing. In ogni caso variazioni del 2-3% le reputo sempre margine di errore, anche se le condizioni in cui testo sono le più identiche possibili, mi piace scremare i risultati dal "rumore di fondo". Continuano a non convincermi in DOOM in cui le 5000 continuano a non avere margine sulle 4000 dal giorno del lancio...

Eddie666
06-08-2025, 14:13
dopo qualche giorno di corretto funzionamento della mia rtx 5090, penso di poter tirare un respiro di sollievo: non ho mai più avuto problemi di mancato avvio, e la scheda ha performato perfettamente con la media delle 5090; ad ogni modo oggi mi è arrivato il nuovo cavo 2v-2x6-cable da seasonic (quello con i terminali dei connettori blu, per verificare che sia correttamente inserito lato alimentatore e gpu) e, installandolo, mi sono reso conto che effettivamente l'inserimento dello stesso richiede più forza rispetto al vecchio cavo, motivo per cui spero che il problema del falso contatto sia definitamente archiviato.

Ho poi iniziato a fare qualche test in undervolt, perché l'idea di avere una roba che mi consuma 600w e mi butta tutto quel calore dentro al pc non mi impazzire: al momento ho creato due profili; uno con 0,9v, frequenza impostata a 2912mhz su msi afterburner (ma che nella realtà non raggiunge mai, per via delle logiche di funzionamento della 5090) e +2000 sulle ram, ho gli stessi punteggi (anzi, leggermente più alti) che non a default, consumando però di media una 70ina di watt in meno nel peggior scenario (steel nomad).

Ne ho poi creato un altro che probabilmente sarà il mio daily, impostando il voltaggio a 0.85, frequenza a 2330mhz, con il quale la perdita di prestazione è sicuramente notabile (es cyberpunk passa da 95 a 80 fps, 4k tutto maxato, dlss auto, no FG), ma anche il consumo scende sensibilmente (siamo nell'ordine dei 170w), e di conseguenza anche le temperature, che difficilmente passano i 60°: ah, da tenere comunque presente che questo profilo mi da prestazioni superiori ad una 4090!

Direi quindi che, passato quel breve spavento iniziale, sono abbastanza soddisfatto della scheda, anche se non ha segnato un salto così netto rispetto a quanto fece la 4090 con la generazione precedente.

Cutter90
06-08-2025, 14:33
dopo qualche giorno di corretto funzionamento della mia rtx 5090, penso di poter tirare un respiro di sollievo: non ho mai più avuto problemi di mancato avvio, e la scheda ha performato perfettamente con la media delle 5090; ad ogni modo oggi mi è arrivato il nuovo cavo 2v-2x6-cable da seasonic (quello con i terminali dei connettori blu, per verificare che sia correttamente inserito lato alimentatore e gpu) e, installandolo, mi sono reso conto che effettivamente l'inserimento dello stesso richiede più forza rispetto al vecchio cavo, motivo per cui spero che il problema del falso contatto sia definitamente archiviato.

Ho poi iniziato a fare qualche test in undervolt, perché l'idea di avere una roba che mi consuma 600w e mi butta tutto quel calore dentro al pc non mi impazzire: al momento ho creato due profili; uno con 0,9v, frequenza impostata a 2912mhz su msi afterburner (ma che nella realtà non raggiunge mai, per via delle logiche di funzionamento della 5090) e +2000 sulle ram, ho gli stessi punteggi (anzi, leggermente più alti) che non a default, consumando però di media una 70ina di watt in meno nel peggior scenario (steel nomad).

Ne ho poi creato un altro che probabilmente sarà il mio daily, impostando il voltaggio a 0.85, frequenza a 2330mhz, con il quale la perdita di prestazione è sicuramente notabile (es cyberpunk passa da 95 a 80 fps, 4k tutto maxato, dlss auto, no FG), ma anche il consumo scende sensibilmente (siamo nell'ordine dei 170w), e di conseguenza anche le temperature, che difficilmente passano i 60°: ah, da tenere comunque presente che questo profilo mi da prestazioni superiori ad una 4090!

Direi quindi che, passato quel breve spavento iniziale, sono abbastanza soddisfatto della scheda, anche se non ha segnato un salto così netto rispetto a quanto fece la 4090 con la generazione precedente.

L UV dayli è troppo basso. Perdere 15 fps è davvero troppo secondo me. Risci a fare anche un 2700 a0.85 secondo me. Parlo di Frequenze reali e non impostate

Dono89
06-08-2025, 14:37
Io davvero non vi capisco....

Tra la 5080 e la 5090 ci passa un 30%.

Accettate una perdita del 20% (andando quindi come una 4090 o una 5080 con oc) tollerata da un abbattimento dei consumi. A che pro allora non prendere direttamente una 5080 e spararla al massimo? Tanto oltre 350w senza bios mod non va. Avete così consumi dimezzati, prestazioni più basse del 20% e spendete meno della metà.

Poi per carità, soldi vostri, però non ha molto senso

Eddie666
06-08-2025, 15:17
L UV dayli è troppo basso. Perdere 15 fps è davvero troppo secondo me. Risci a fare anche un 2700 a0.85 secondo me. Parlo di Frequenze reali e non impostate

quello è praticamente il settaggio che corrisponde al primo undervolt: di fatto nei bench pesanti (come steel nomad) la frequenza oscilla attorno ai 2700mhz, mentre nel caso di bench leggeri (o applicazioni 3d che non usano tutte le features della scheda video) la frequenza sale anche sopra i 2800mhz.
per quanto riguarda il voltaggio ho notato che (fermo restando che le letture siano veritiere), impostando 0.9v risultano 0.0885-0.0890......qualsiasi valore imposto da msi afterbuner risultata sempre più basso di qualche millivolt

Io davvero non vi capisco....

Tra la 5080 e la 5090 ci passa un 30%.

Accettate una perdita del 20% (andando quindi come una 4090 o una 5080 con oc) tollerata da un abbattimento dei consumi. A che pro allora non prendere direttamente una 5080 e spararla al massimo? Tanto oltre 350w senza bios mod non va. Avete così consumi dimezzati, prestazioni più basse del 20% e spendete meno della metà.

Poi per carità, soldi vostri, però non ha molto senso

dipende: intanto ho una scheda che quando voglio posso sbloccare a piena potenza. in più ho un quantititavo di ram che la 5080 non ha, che giocando in 4k fa sempre comodo (a dire il vero fosse uscita una 5080 a 24gb avrei probabilmente preso quella). E ad ogni modo la 5080 è abbastanza castrata rispetto non solo alla 5090, ma anche alla 4090.
Per quanto riguarda l'aspetto economico che dire, mi è capitata una buona offerta e ne ho approfittato

Dono89
06-08-2025, 15:33
dipende: intanto ho una scheda che quando voglio posso sbloccare a piena potenza. in più ho un quantititavo di ram che la 5080 non ha, che giocando in 4k fa sempre comodo (a dire il vero fosse uscita una 5080 a 24gb avrei probabilmente preso quella). E ad ogni modo la 5080 è abbastanza castrata rispetto non solo alla 5090, ma anche alla 4090.
Per quanto riguarda l'aspetto economico che dire, mi è capitata una buona offerta e ne ho approfittato

Tecnicamente la 5080 è la metà tra cuda e bus rispetto una 5090, ma non va affatto la metà, quindi il fatto che sia castrata a livello di hw è un'invariante. Se ti bastano le prestazioni di una 5090 castrada del 20%, ti bastano quelle di una 5080 boostata del 10%.

Per quanto riguarda il discorso vram, continuate ad avere in mente la memoria allocata che si prende la gpu perchè più ce n'è e più ne alloca giustamente, ma quella usata o che serve è una frazione ed in scenari 4K con DLSS Q giocate in 2K. In 2K 16gb non è che bastano, avanzano. Se poi giocate in 4K con DLAA allora è un altro discorso, ma dubito sia questo il caso dato che in 4K DLAA servono quante più prestazioni possibili e non si guardano i 100w

Eddie666
06-08-2025, 15:56
Tecnicamente la 5080 è la metà tra cuda e bus rispetto una 5090, ma non va affatto la metà, quindi il fatto che sia castrata a livello di hw è un'invariante. Se ti bastano le prestazioni di una 5090 castrada del 20%, ti bastano quelle di una 5080 boostata del 10%.

Per quanto riguarda il discorso vram, continuate ad avere in mente la memoria allocata che si prende la gpu perchè più ce n'è e più ne alloca giustamente, ma quella usata o che serve è una frazione ed in scenari 4K con DLSS Q giocate in 2K. In 2K 16gb non è che bastano, avanzano. Se poi giocate in 4K con DLAA allora è un altro discorso, ma dubito sia questo il caso dato che in 4K DLAA servono quante più prestazioni possibili e non si guardano i 100w

infatti il vantaggio di avere più ram è proprio quello di poterne allocare un quantitativo maggiore, che diminuisce la frequenza con cui la stessa viene svuotata e ricaricata con nuovi dati: è lo stesso concetto per cui avere più ram di sistema migliora le prestazioni, proprio perchè posso allocare un maggior numero di dati all'interno della stessa.

Per curiosità, visto che abbiamo una cpu simile, mi faresti un paio di bench come steel nomad e speed way? grazie!

Dono89
06-08-2025, 16:02
infatti il vantaggio di avere più ram è proprio quello di poterne allocare un quantitativo maggiore, che diminuisce la frequenza con cui la stessa viene svuotata e ricaricata con nuovi dati: è lo stesso concetto per cui avere più ram di sistema migliora le prestazioni, proprio perchè posso allocare un maggior numero di dati all'interno della stessa.

Per curiosità, visto che abbiamo una cpu simile, mi faresti un paio di bench come steel nomad e speed way? grazie!

Prima che arrivi alle condizioni in cui ti servono tutti i 32gb, anche una scheda come la 5090 si ferma e arrancherebbe. Il caricamento se è solo allocazione e non utilizzo non impatta le prestazioni.

Nomad - 9800pts
Speedway - 103300

I punteggi miei però sono al ribasso, avendo 1,07V mi taglia le frequenze rispetto una situazione in cui potrei mettere 1V e 50MHz in meno sul core

Cmq ottimizzata per bench (e meno prestazioni in gaming) siamo
Nomad - 9950
Speedway - 10500

Eddie666
06-08-2025, 16:14
Prima che arrivi alle condizioni in cui ti servono tutti i 32gb, anche una scheda come la 5090 si ferma e arrancherebbe. Il caricamento se è solo allocazione e non utilizzo non impatta le prestazioni.

Nomad - 9800pts
Speedway - 103300

I punteggi miei però sono al ribasso, avendo 1,07V mi taglia le frequenze rispetto una situazione in cui potrei mettere 1V e 50MHz in meno sul core

Cmq ottimizzata per bench (e meno prestazioni in gaming) siamo
Nomad - 9950
Speedway - 10500

Grazie, mi servivano come riferimento. considera che, settando il profilo di undervolt più spinto, questi sono i miei punteggi:

Nomad - 12746
Speedway - 12885

Dono89
06-08-2025, 16:44
Grazie, mi servivano come riferimento. considera che, settando il profilo di undervolt più spinto, questi sono i miei punteggi:

Nomad - 12746
Speedway - 12885

In nomad fai 12K a 2330MHz? Mi sembra strano, molto, che performi più di una 5080 a 3200. C'è quasi 1GHz di clock

Eddie666
06-08-2025, 16:52
In nomad fai 12K a 2330MHz? Mi sembra strano, molto, che performi più di una 5080 a 3200. C'è quasi 1GHz di clock

in realtà la frequenza è anche più bassa

https://www.3dmark.com/sn/7863555

Dono89
06-08-2025, 18:06
Non è che hai un sample super fortunato tra le mani? E allora forse l'uv potrebbe anche starci, ma non così aggressivo.

Quanto fai a stock?

oZonoRobotics
06-08-2025, 18:30
dopo che vi ho letto, ho provato ora con gli ultimi drivers per curiosità e, dal profilo undervolt che tiene cyberpunk (che è l'unico gioco che mi fa crashare a meno che non riduca di 200mhz il clock per risparmiare 110+ watt su cyberpunk, sugli altri giochi che hanno bisogno di meno corrente è molto meglio) al profilo stock e quindi al profilo oc massimo con ventole a palla perdo 1000 punti, io ormai ho sempre il profilo conservative visto che non mi cambia nulla

https://i.postimg.cc/bDRQCM9D/Senza-titolo.png (https://postimg.cc/bDRQCM9D)

Prima che arrivi alle condizioni in cui ti servono tutti i 32gb

l'unico caso in cui ho visto superare i 16gb è doom ma a 5120x2160

https://i.postimg.cc/p9rghZYM/2.jpg (https://postimg.cc/p9rghZYM)

ps: ho provato indiana jones ovviamente a palla e anche lui

https://i.postimg.cc/jnvxW6QJ/1.jpg (https://postimg.cc/jnvxW6QJ)

black myth alloca solo 9 gb e alan wake 11... boh

Eddie666
06-08-2025, 18:45
Non è che hai un sample super fortunato tra le mani? E allora forse l'uv potrebbe anche starci, ma non così aggressivo.

Quanto fai a stock?

dubito, è una "misera" msi ventus (la 5090 più "economica", se così si può definire una scheda che costa 2000 euro)

questi sono i miei risultati a stock:

Steel Nomad (https://www.3dmark.com/3dm/139297168)

Speed Way (https://www.3dmark.com/3dm/139283881)

Cutter90
06-08-2025, 18:48
In nomad fai 12K a 2330MHz? Mi sembra strano, molto, che performi più di una 5080 a 3200. C'è quasi 1GHz di clock

Ci sta. C onsidera che io faccio 15.500 circa in sterl nomad.
Cmq ha davvero zero senso tenerla così castarta. Un conto è ottimizzare i consumi. E lo si fa andando come a stock o un filo meno dello stock ma consumando molto meno.
Un conto è farla andare come una 4090 quasi. Così avete una 5090 non ha senso.
In ogni caso i 16 gb allocati li ho superato in qualche gioco. Anche un un Le mans Ultimate li supera e arriva quasi a 22.

Dono89
06-08-2025, 19:45
Ci sta. C onsidera che io faccio 15.500 circa in sterl nomad.
Cmq ha davvero zero senso tenerla così castarta. Un conto è ottimizzare i consumi. E lo si fa andando come a stock o un filo meno dello stock ma consumando molto meno.
Un conto è farla andare come una 4090 quasi. Così avete una 5090 non ha senso.
In ogni caso i 16 gb allocati li ho superato in qualche gioco. Anche un un Le mans Ultimate li supera e arriva quasi a 22.


Ma per 15.5 sei con oc suppongo. Lui ha tolto minimo 700mhz.

Il fatto di avere la versione custom più sfigata conta nulla, se il chip è buono è buono

Esagerao
06-08-2025, 22:43
La ventus con bios stock e curve editor ov fà circa 500-700 punti in meno di una 5090 premium, io in speedway sono poco sotto i 15100 ma appena la misi nei primi run ero a 14500, ero in grande sofferenza di drivers stallavo su tutto.
Dopo l'estate se mi prende la scimmia vado di flash bios con quello della suprim aria che ripareggia i conti, nei giochi ci sono pochi fotogrammi di differenza poco apprezzabili.

Domani cambio ram passo alle 8400 che spero di mantenere in xmp per curiosità rifaro bench, non che mi aspetti particolari benfici ma con le mie sono riuscito a fare una switch senza esborso.

FvR 93
07-08-2025, 00:39
La ventus con bios stock e curve editor ov fà circa 500-700 punti in meno di una 5090 premium, io in speedway sono poco sotto i 15100 ma appena la misi nei primi run ero a 14500, ero in grande sofferenza di drivers stallavo su tutto.
Dopo l'estate se mi prende la scimmia vado di flash bios con quello della suprim aria che ripareggia i conti, nei giochi ci sono pochi fotogrammi di differenza poco apprezzabili.

Domani cambio ram passo alle 8400 che spero di mantenere in xmp per curiosità rifaro bench, non che mi aspetti particolari benfici ma con le mie sono riuscito a fare una switch senza esborso.

Tienici aggiornati! Che temperature hai con la ventus attualmente e che voltaggio massimo ti raggiunge?

Dono89
07-08-2025, 07:44
Occhio a non considerare nomad per le performance in game però.

In nomad la scheda tende a tagliare, quindi con un voltaggio minore e frequenze minori si avranno minori tagli e punteggi maggiori se non si toccano TUTTI i punti della curva, ma si va di slider (cosa da fare in oc). Scenario diverso dal game dove i tagli non ci sono

Eddie666
07-08-2025, 08:18
Occhio a non considerare nomad per le performance in game però.

In nomad la scheda tende a tagliare, quindi con un voltaggio minore e frequenze minori si avranno minori tagli e punteggi maggiori se non si toccano TUTTI i punti della curva, ma si va di slider (cosa da fare in oc). Scenario diverso dal game dove i tagli non ci sono

è vero, Nomad arriva al power limit della scheda, e di conseguenza le frequenze vengono tagliate non poco.

prima di andare al lavoro ho fatto partire lo stress test di port royal con l'ultimo curva che mi interessa testare e settare, che sarebbe quella relativa al massimo overlock raggiungibile con i voltaggi di default; in questo caso ho semplicemente alzato tutta la curva, prendendo come punto di riferimento il voltaggio di 0.95v e settando la frequenza in quel punto a 2930MHZ.
prima di lanciare lo stress test ho fatto un paio di test al volo (tanto per vedere se crashasse subito), ed in quei casi ho visto frequenze anche ben superiori ai 3ghz

N.B. rispetto ai risultati che ho postato ieri ho abbassato il clock della cpu di 200mhz scendendo da 5400mhz di picco a 5200mhz; in game non cambia nulla, mentre nei bench probabilmente perdo qualcosa

STRESS TEST PORT ROYAL (https://www.3dmark.com/prst/452557)

SPEED WAY (https://www.3dmark.com/sw/2579618)

PORT ROYAL (https://www.3dmark.com/pr/3589214)

FIRE STRIKE ULTRA (https://www.3dmark.com/fs/33659710)

STEEL NOMAD (https://www.3dmark.com/sn/7879596)

Esagerao
07-08-2025, 09:23
Tienici aggiornati! Che temperature hai con la ventus attualmente e che voltaggio massimo ti raggiunge?


Sono a lavoro... a memoria... ti dico che uso mediamente il curve editor settato 3ghz 1000mv.

Temperature con airflow super ottimizzato, dopo 3 ore di msfs2024 gpu 100% sono sempre stato comodo sotto 70°.

Anto_Dur
09-08-2025, 12:55
Ho visto da ieri che sono disponibili le 5090 btf su lc e le 5070 ti btf white su amazon. Però io lo aspetto su amazon la btf 5090 anche se dovrebbe costare un po di piu che su lc che sta sui 3000 poco piu.

Comunque la differenza di prezzo sembra molto poca confronto a quelle vecchie su lc. Forse andranno sparendo le vecchie versioni?

Freisar
10-08-2025, 13:07
:D sono riuscito a fare partire la 5090 Astral :muro:

dAbOTZ
10-08-2025, 20:20
E mica penserai di cavartela così :mbe:

Che aveva?

Freisar
10-08-2025, 22:44
E mica penserai di cavartela così :mbe:

Che aveva?

Ho cambiato PSU con un Thor III e scheda madre con una rog hero x870e

amon.akira
10-08-2025, 23:12
Ho cambiato PSU con un Thor III e scheda madre con una rog hero x870e

sei andato di brute forcing :asd:

ROBHANAMICI
11-08-2025, 13:49
era partita la psu :asd:

FvR 93
11-08-2025, 13:58
dopo 4000 euro spesi finalmente ha risolto :fagiano:

davide155
11-08-2025, 16:39
dopo 4000 euro spesi finalmente ha risolto :fagiano:

Quelli manca poco non gli son bastati manco per la 5090 :stordita:

FvR 93
12-08-2025, 11:16
Per chi volesse una bella Zotac Flambè (e non per il connettore di alimentazione)
https://www.igorslab.de/en/zotac-rtx-5090-device-on-fire-while-playing-battlefield-6-severe-damage-to-gpu-and-mainboard/

scatolino
12-08-2025, 17:33
Nuovo driver ufficiale: 580.97

Anto_Dur
13-08-2025, 12:14
era partita la psu :asd:

Mi pare anche la scheda madre se non ho capito male :D

Luxor83
13-08-2025, 14:43
:D sono riuscito a fare partire la 5090 Astral :muro:

Guarda, nemmeno Lost mi ha tenuto così incollato allo schermo. :D

dAbOTZ
13-08-2025, 15:18
Mi pare anche la scheda madre se non ho capito male :D

Se non ricordo male quella funzionava ma nel terzo episodio della quinta stagione c'è stato il plot twist, la gpu cozzava contro l'AIO della cpu.

ROBHANAMICI
13-08-2025, 17:29
boh quel che è certo è che rimane un bel mistero :asd:

Anto_Dur
13-08-2025, 20:41
Se non ricordo male quella funzionava ma nel terzo episodio della quinta stagione c'è stato il plot twist, la gpu cozzava contro l'AIO della cpu.

Si ma che l'aveva anche rotta mi pare. Poi boh chi ci capisce è bravo :)

Eddie666
15-08-2025, 16:37
Buon Ferragosto a tutti!

dato che la mia Ventus si sentiva un pò fuori luogo ad essere l'unico componente privo di RGB nella mia build, ho pensato di darle un minimo di dignità :D

https://i.ibb.co/xSvfmch4/20250815-170001.jpg (https://ibb.co/xSvfmch4) https://i.ibb.co/v4hrLMNs/20250815-170025.jpg (https://ibb.co/v4hrLMNs)

bobby10
16-08-2025, 12:56
Buon Ferragosto a tutti!

dato che la mia Ventus si sentiva un pò fuori luogo ad essere l'unico componente privo di RGB nella mia build, ho pensato di darle un minimo di dignità :D

https://i.ibb.co/xSvfmch4/20250815-170001.jpg (https://ibb.co/xSvfmch4) https://i.ibb.co/v4hrLMNs/20250815-170025.jpg (https://ibb.co/v4hrLMNs)

che programma usi per gestire i colori nel case?

Eddie666
16-08-2025, 13:51
che programma usi per gestire i colori nel case?

open rgb, associato ad un controller nollie a 16 canali: il programma in sè occupa pochissime risorse (molte meno di signal rgb ad esempio, che l'ho visto addirittura arrivare ad 1gb di consumo ram!), ed il controller permette di gestire ogni singolo led delle ventole/strisce/qualsiasi altra cosa collegata

dAbOTZ
16-08-2025, 14:45
Semi OT, come mai hai montato l'AIO così?

Eddie666
16-08-2025, 15:50
Semi OT, come mai hai montato l'AIO così?

con i tubi rivolti verso il retro? perchè ho un case con pannello laterale e frontale in vetro (in realtà è un'unica lastra di vetro curva), per cui mi piaceva che il frontale rimanesse il più pulito possibile.

https://i.ibb.co/ycbMpWKj/20250816-164709.jpg (https://ibb.co/ycbMpWKj) https://i.ibb.co/tM55m83P/20250816-164723.jpg (https://ibb.co/tM55m83P)

Anto_Dur
16-08-2025, 16:39
Per chi interessa sta venduta direttamente da amazon la versione btf 5090 a quasi 3200 euro.

dAbOTZ
16-08-2025, 17:03
con i tubi rivolti verso il retro? perchè ho un case con pannello laterale e frontale in vetro (in realtà è un'unica lastra di vetro curva), per cui mi piaceva che il frontale rimanesse il più pulito possibile.


Capito. Ho anch'io il case così ma ho montato frontalmente per non creare il sifone.

Per chi interessa sta venduta direttamente da amazon la versione btf 5090 a quasi 3200 euro.

Questa? Su LDLC è a 150€ in meno.

https://media.ldlc.com/r705/ld/products/00/06/26/41/LD0006264100.jpg

Anto_Dur
16-08-2025, 18:02
Si su lc sta a meno ma ora non è già piu disponibile e su amazon l'hanno aumentata di 100 euro di già dato che su amazon è una garanzia aggiuntiva. A me arriva tra qualche giorno ma ora arriva a settembre di già. L'avranno comprata in massa :D

dAbOTZ
16-08-2025, 20:18
Bisogna riconoscere che questi connettori high power sono veramente sexy. Potenza fuori scala ma temperature bassissime, e cavi nascosti. L'unica cosa che mi lascia un po' perplesso è che non abbiano previsto una capsula anti torsione per impedirgli di piegarsi.

Anto_Dur
16-08-2025, 21:01
Bisogna riconoscere che questi connettori high power sono veramente sexy. Potenza fuori scala ma temperature bassissime, e cavi nascosti. L'unica cosa che mi lascia un po' perplesso è che non abbiano previsto una capsula anti torsione per impedirgli di piegarsi.

Cmq considera che dietro le schede madri si attacca sempre il cavo 16 pin. Dunque è solo davanti che è diverso. Io però l'ho presa perchè volevo regalare la mia a mio fratello per il futuro gta 6. Dato che non so se riuscirò a prendere la 6090, per vari motivi di soldi o di tempo dall'uscita, dunque per sicurezza le ho prese ora. Poi la prima 5090 l'ho pagata anche cara ma non vi dico il prezzo se no mi prendete per pazzo :D sempre venduto da amazon

dAbOTZ
17-08-2025, 11:58
Se inizia con 4 puoi bannarti da solo :stordita:

Continuano ad essere disponibili '90 e '80 founders sullo store, non le vuole più nessuno? :D

Son curioso di vedere se verranno riprezzate in occasione dell'uscita delle Super. Ricordo male o nella gen precedente la '80 Super aveva addirittura un msrp più basso della liscia?

amon.akira
17-08-2025, 12:18
Se inizia con 4 puoi bannarti da solo :stordita:

Continuano ad essere disponibili '90 e '80 founders sullo store, non le vuole più nessuno? :D

Son curioso di vedere se verranno riprezzate in occasione dell'uscita delle Super. Ricordo male o nella gen precedente la '80 Super aveva addirittura un msrp più basso della liscia?

Si 999 come le 5080, mentre con le lisce avevano esagerato con 1199dollari quindi hanno aggiustato il tiro

eXeS
17-08-2025, 13:08
Se inizia con 4 puoi bannarti da solo :stordita:

Continuano ad essere disponibili '90 e '80 founders sullo store, non le vuole più nessuno? :D

Sono sempre 1.1K e 2.2K pepite, e nel periodo estivo se si deve scegliere se spenderli in una scheda video o in una vacanza, probabilmente si opta per la seconda opzione ;)

FvR 93
17-08-2025, 14:00
Continuano ad essere disponibili '90 e '80 founders sullo store, non le vuole più nessuno? :D

Son curioso di vedere se verranno riprezzate in occasione dell'uscita delle Super. Ricordo male o nella gen precedente la '80 Super aveva addirittura un msrp più basso della liscia?

Semplicemente allo stato attuale non valgono più quelle cifre con le super fuori in sei mesi e i negozi pieni di stock e spesso a partire da prezzi anche inferiori delle founders.

La 4080super era praticamente una 80 liscia ricollocata sul mercato. Nessun incremento prestazionale però non hanno perso l'occasione di usare un PCB più economico su molti modelli, con qualche fase di alimentazione in meno e qualche condensatore più economico. Una presa in giro sostanzialmente, come lo è anche la nostra 4080supersuper aka 5080 ma tant'è :D

Anto_Dur
17-08-2025, 15:20
Se inizia con 4 puoi bannarti da solo :stordita:

Continuano ad essere disponibili '90 e '80 founders sullo store, non le vuole più nessuno? :D

Son curioso di vedere se verranno riprezzate in occasione dell'uscita delle Super. Ricordo male o nella gen precedente la '80 Super aveva addirittura un msrp più basso della liscia?

4 no ma non ci sta tanto lontano :D ma se sapevo che quelle vendute da amazon dopo 2 mesi costavano normalmente avrei aspettato ma non si sapeva come andavano le cose

Sealea
18-08-2025, 02:13
Se inizia con 4 puoi bannarti da solo :stordita:

Continuano ad essere disponibili '90 e '80 founders sullo store, non le vuole più nessuno? :D

Son curioso di vedere se verranno riprezzate in occasione dell'uscita delle Super. Ricordo male o nella gen precedente la '80 Super aveva addirittura un msrp più basso della liscia?

gli scimmiati le hanno prese al d1, gli altri si sono resi conto che nessuna delle schede a listino vale quello che costa.

Anto_Dur
18-08-2025, 04:14
Ah ma io non l ho presa al day one cmq sia dato che ho aspettato che era venduta direttamente da amazon. E sono passati mesi

davide155
18-08-2025, 18:00
gli scimmiati le hanno prese al d1, gli altri si sono resi conto che nessuna delle schede a listino vale quello che costa.

Amen.....

Nessuna delle 5000 vale il prezzo che chiedono.
Forse forse la 5070ti quando è andata in offerta a 750€, altrimenti ogni fascia ha un suo handicap che non rispecchia assolutamente il prezzo richiesto.

FvR 93
18-08-2025, 20:03
Amen.....

Nessuna delle 5000 vale il prezzo che chiedono.
Forse forse la 5070ti quando è andata in offerta a 750€, altrimenti ogni fascia ha un suo handicap che non rispecchia assolutamente il prezzo richiesto.

è una verità, poi se uno ha la passione è giustificato a prendere quello che vuole. Dal punto di vista razionale invece è una generazione che non ha senso, come anche la generazione passata tolte 4070super e 4090 per me le altre erano tutte schede sbagliate: alcune tecnicamente (60/60Ti), altre per scelte di mercato (70Ti con 12GB a 1000€) e il prezzo altissimo della 4080 parametrato al distacco prestazionale con la 90. In questa lineup la situazione è ancora peggiore, con la 5070 che fatica ad andare meglio dell'ottima 4070 super :doh:

davide155
18-08-2025, 20:26
è una verità, poi se uno ha la passione è giustificato a prendere quello che vuole. Dal punto di vista razionale invece è una generazione che non ha senso, come anche la generazione passata tolte 4070super e 4090 per me le altre erano tutte schede sbagliate: alcune tecnicamente (60/60Ti), altre per scelte di mercato (70Ti con 12GB a 1000€) e il prezzo altissimo della 4080 parametrato al distacco prestazionale con la 90. In questa lineup la situazione è ancora peggiore, con la 5070 che fatica ad andare meglio dell'ottima 4070 super :doh:

Dai un pò lo potevamo intuire ancor prima che uscisse blackwell.....già dai leak sapevamo il cap watt uguale alla 4090, il medesimo nodo, i cuda core....c'era poco da fare. Sapevamo che il salto non sarebbe stato quantico come ha fatto la 4090 sulla 3090 perchè proprio fisicamente era impossibile. Il perf x watt più di li non può andare a parità di nodo.
Però come dico sempre, non ci sono gpu di merda ma semplicemente inquadramenti di prezzo sbagliati. E 1200€ per una 5080 o 2400€ per una 5090 sono una presa in giro rispetto al passato recente.
Poi l'abbiamo detto e stra detto, queste son chiacchere da bar perchè la passione vince su tutto e ti fa spendere migliaia di euro in cose futili, ed in un thread tecnico come questo lo sappiamo bene. Ma quello è un altro discorso :)

Anto_Dur
18-08-2025, 20:30
è una verità, poi se uno ha la passione è giustificato a prendere quello che vuole. Dal punto di vista razionale invece è una generazione che non ha senso, come anche la generazione passata tolte 4070super e 4090 per me le altre erano tutte schede sbagliate: alcune tecnicamente (60/60Ti), altre per scelte di mercato (70Ti con 12GB a 1000€) e il prezzo altissimo della 4080 parametrato al distacco prestazionale con la 90. In questa lineup la situazione è ancora peggiore, con la 5070 che fatica ad andare meglio dell'ottima 4070 super :doh:

No vabbe hanno ragione. Magari qualcuno si può sentire un po arrabbiato che c'è gente che compra a prezzi alti e magari poi saranno sempre piu alti. Li capisco. Però io nel caso non avrei i soldi, e il mio futuro avrò meno soldi ora non sto a spiegare, mi accontenterei di meno.

Ma ripeto: capisco un po tutti avete ragione ed ognuno ha i suoi motivi :)

dAbOTZ
18-08-2025, 22:22
Eccallà, mo' che l'ho detto hanno abbassato i prezzi e sono andate in sold out :D

https://i.ibb.co/wZF93HKd/Nvidia-Store-Founders-2025-08-18.png

Questo a fine giugno, costanti fino a qualche giorno fa:

https://i.ibb.co/wmxsVkw/Nvidia-Store-Founders-2025-06-27.png

Yota79
18-08-2025, 22:25
ma il motivo della riduzione di prezzo? :mbe:

dAbOTZ
18-08-2025, 22:34
Per trollare gli scimmiati? :stordita:

E' un mercato imprevedibile, a dar retta agli analisti di inizio anno pareva che causa dazi a destra e sinistra ci sarebbero state impennate di prezzi e scorte esaurite fino all'autunno.. ammettiamo pure che nessuno ne capisce veramente un accidente di niente. Bah, 'ngulo. Ormai è andata.

LkMsWb
18-08-2025, 23:19
ma il motivo della riduzione di prezzo? :mbe:

Perché la svalutazione del dollaro ha quasi compensato l'iva, e il prezzo ufficiale USA è 1999 dollari, quindi metti cambio e riaggiungi l'iva e siamo a 2.099 euro (in realtà ad oggi saremmo a 2.089).

Quindi non è una riduzione ma un adeguamento al valore odierno delle monete.

Anto_Dur
19-08-2025, 13:36
Vabbe ci sta dai :) a me cmq non da fastidio. Fin da quando avevo 16 anni ho comprato delle cose e dopo una settimana sono calate di prezzo :D dunque ci ho fatto il callo. Se no non si compra piu nulla

amon.akira
19-08-2025, 16:22
ma il motivo della riduzione di prezzo? :mbe:

Il prezzo è sempre lo stesso in dollari, qui è solo adeguamento al cambio...se un domani risale il dollaro adegua verso l alto.

spatasso
19-08-2025, 17:31
ciao ragazzi mi sta venendo la scimmia di cambiare la mi 4070s stavo guardando la 5070Ti e la 5080
considerando che gioco in 3440x1440 ha senso la differenza di prezzo
5070ti 899€
5070 1190€

dAbOTZ
19-08-2025, 17:51
581.08

Fixed Gaming Bugs
> Cyberpunk 2077: Crash when using Photo Mode to take a screenshot with path tracing enabled [5076545]

Alleluja.

davide155
19-08-2025, 18:13
ciao ragazzi mi sta venendo la scimmia di cambiare la mi 4070s stavo guardando la 5070Ti e la 5080
considerando che gioco in 3440x1440 ha senso la differenza di prezzo
5070ti 899€
5070 1190€

Rispetto ad una 4070s vedrei meglio la 5080 come salto prestazionale.
Però 1190€ per me non li vale quella scheda.
Se sei fortunato e la trovi sotto i 1000€ allora il discorso cambia.
Su bpm ci sono a 1020€ le manli e le palit.

spatasso
19-08-2025, 18:18
Rispetto ad una 4070s vedrei meglio la 5080 come salto prestazionale.
Però 1190€ per me non li vale quella scheda.
Se sei fortunato e la trovi sotto i 1000€ allora il discorso cambia.
Su bpm ci sono a 1020€ le manli e le palit.
do un occhio su bpm grazie mille
palit o manli sono marchi affidabili?

davide155
19-08-2025, 20:18
do un occhio su bpm grazie mille

palit o manli sono marchi affidabili?Palit gestisce anche kfa2, gainword e galax. Come volumi piazzati superò pure asus anni fa.
Manli invece fa parte del gruppo pc partner che ha zotac e inno3d.
Sono tutti marchi abbastanza affidabili. Le rotture ci sono in qualsiasi marca. Tutto sta alla tua simpatia per uno o l'altro marchio o alla gpu che più ti piace esteticamente. A livello prestazionale siamo li.

tony73
19-08-2025, 20:57
Amen.....

Nessuna delle 5000 vale il prezzo che chiedono.
Forse forse la 5070ti quando è andata in offerta a 750€, altrimenti ogni fascia ha un suo handicap che non rispecchia assolutamente il prezzo richiesto.

Hai ragione ma come tutte le cose al TOP il prezzo è sempre fuori scala, detto ciò ce poco da fare la 5090 è UNA BESTIA disumana pochi cazzi...

androsdt
19-08-2025, 21:21
ciao ragazzi mi sta venendo la scimmia di cambiare la mi 4070s stavo guardando la 5070Ti e la 5080
considerando che gioco in 3440x1440 ha senso la differenza di prezzo
5070ti 899€
5070 1190€

anche io avevo la 4070s e sono passato alla 5070ti, non vale la pena passare alla 5080 vista la differenza di prestazioni per il prezzo in +

spatasso
20-08-2025, 05:56
anche io avevo la 4070s e sono passato alla 5070ti, non vale la pena passare alla 5080 vista la differenza di prestazioni per il prezzo in +


Hai visto miglioramenti tangibili?


Inviato dal mio iPhone utilizzando Tapatalk

davide155
20-08-2025, 07:29
Hai ragione ma come tutte le cose al TOP il prezzo è sempre fuori scala, detto ciò ce poco da fare la 5090 è UNA BESTIA disumana pochi cazzi...
È una scheda da +20%--30% in più di media sulla 4090, a seconda dei titoli e delle marche di gpu. Mi dirai, ti sembra poco? Assolutamente no, anche se Jensen ci aveva abituato troppo bene con la 4090 come salto sulla precedente gen, ma con PP uguale non poteva esserci più margine di così.
A rigor di logica doveva costare quanto la 4090 o poco più dato quello che offriva...... per 1000euro in più (2mila in alcuni modelli!) personalmente è un furto.

Iceman69
20-08-2025, 07:41
È una scheda da +20%--30% in più di media sulla 4090, a seconda dei titoli e delle marche di gpu. Mi dirai, ti sembra poco? Assolutamente no, anche se Jensen ci aveva abituato troppo bene con la 4090 come salto sulla precedente gen, ma con PP uguale non poteva esserci più margine di così.
A rigor di logica doveva costare quanto la 4090 o poco più dato quello che offriva...... per 1000euro in più (2mila in alcuni modelli!) personalmente è un furto.

Ma infatti tanti possessori di 4090 si sono sentiti presi in giro dai vari raggiri circa le possibilità delle nuove tecnologie che secondo Nvidia giustificherebbero il rincaro dei prezzi e non hanno proceduto all'acquisto (io sono tra questi).

Secondo me la 5090 un'norme bufala se rapportata al prezzo richiesto e probabilmente lo sarebbe stato anche a pari prezzo della 4090 (ma in quel caso la avrei comprata). Speriamo nella 6090 a questo punto.

parcher
20-08-2025, 08:05
Hai ragione ma come tutte le cose al TOP il prezzo è sempre fuori scala, detto ciò c'è poco da fare la 5090 è UNA BESTIA disumana pochi cazzi...
Quoterrimo, comunque una bestiaccia :oink: ; ho ceduto due 4090 e l'ultima Asus TUF 4090 Gaming OC a malincuore, ma mi ero ripromesso sin dall'inizio che avrei provato a prendere la Founder e ci ho provato da Gennaio a maggio senza successo. Dopo mi capita una opportunita di una MSI 5090 Ventus ad un prezzo che per me era il mio target massimo, non oltre i 2K..

davide155
20-08-2025, 08:28
Ma infatti tanti possessori di 4090 si sono sentiti presi in giro dai vari raggiri circa le possibilità delle nuove tecnologie che secondo Nvidia giustificherebbero il rincaro dei prezzi e non hanno proceduto all'acquisto (io sono tra questi).



Secondo me la 5090 un'norme bufala se rapportata al prezzo richiesto e probabilmente lo sarebbe stato anche a pari prezzo della 4090 (ma in quel caso la avrei comprata). Speriamo nella 6090 a questo punto.Il fatto principale a parte il prezzo sai qual è?
Che non sentiamo la reale necessità di cambiare gpu. Venendo dalla 3090 due anni fa sentivo una forte necessità di più fps in 4k con rt. Con la 4090 tutto questo non esiste perché tutt'oggi permette di giocare a praticamente tutto in qualsiasi modo. Quindi c'è meno voglia di cambiare già di partenza, poi a questi prezzi, ti passa totalmente.
Comunque per la 6090 il discorso prezzo sarà pure peggio perché come diceva mike tempo fa, il prossimo processo produttivo sarà ancor più costoso come costo del singolo wafer.

tony73
20-08-2025, 09:15
È una scheda da +20%--30% in più di media sulla 4090, a seconda dei titoli e delle marche di gpu. Mi dirai, ti sembra poco? Assolutamente no, anche se Jensen ci aveva abituato troppo bene con la 4090 come salto sulla precedente gen, ma con PP uguale non poteva esserci più margine di così.
A rigor di logica doveva costare quanto la 4090 o poco più dato quello che offriva...... per 1000euro in più (2mila in alcuni modelli!) personalmente è un furto.

Io venivo da una 3080 che dici l'ho fatto il salto? :)

Iceman69
20-08-2025, 09:34
Il fatto principale a parte il prezzo sai qual è?
Che non sentiamo la reale necessità di cambiare gpu. Venendo dalla 3090 due anni fa sentivo una forte necessità di più fps in 4k con rt. Con la 4090 tutto questo non esiste perché tutt'oggi permette di giocare a praticamente tutto in qualsiasi modo. Quindi c'è meno voglia di cambiare già di partenza, poi a questi prezzi, ti passa totalmente.
Comunque per la 6090 il discorso prezzo sarà pure peggio perché come diceva mike tempo fa, il prossimo processo produttivo sarà ancor più costoso come costo del singolo wafer.

Hai ragione sul fatto che per le prestazioni stiamo già bene così e la necessità di cambiare è poca (ma non è mai una questione di necessità alla fine).
Per il discorso 6090 nel mio caso più che il prezzo puro sarà il rapporto prezzo/prestazioni a determinare l'acquisto e poi che per meno del 50% di incremento delle prestazioni (pure, senza trucchetti che funzionano solo con alcuni giochi) non cambio.

davide155
20-08-2025, 11:17
Io venivo da una 3080 che dici l'ho fatto il salto? :)Senza ombra di dubbio. Spero di avere il tuo stesso salto con la 6090 :DHai ragione sul fatto che per le prestazioni stiamo già bene così e la necessità di cambiare è poca (ma non è mai una questione di necessità alla fine).
Per il discorso 6090 nel mio caso più che il prezzo puro sarà il rapporto prezzo/prestazioni a determinare l'acquisto e poi che per meno del 50% di incremento delle prestazioni (pure, senza trucchetti che funzionano solo con alcuni giochi) non cambio.Sono d'accordo. Se devo spendere è per un guadagno tangibile. La passione per l'hobby va bene, ma quando si parla di 2500euro di scheda il discorso hobby si complica :D

mikael84
20-08-2025, 11:50
Il fatto principale a parte il prezzo sai qual è?
Che non sentiamo la reale necessità di cambiare gpu. Venendo dalla 3090 due anni fa sentivo una forte necessità di più fps in 4k con rt. Con la 4090 tutto questo non esiste perché tutt'oggi permette di giocare a praticamente tutto in qualsiasi modo. Quindi c'è meno voglia di cambiare già di partenza, poi a questi prezzi, ti passa totalmente.
Comunque per la 6090 il discorso prezzo sarà pure peggio perché come diceva mike tempo fa, il prossimo processo produttivo sarà ancor più costoso come costo del singolo wafer.

Anche il 4n, essendo il più utilizzato sta subendo rincari su rincari, ed è salito abbastanza rispetto quando lo utilizzarono su ADA.
La 5090, si spinge quasi ai limiti del reticolato per restare nei 121mt/mm2, ed i costi, con poco più di 30 rese, sono molto molto elevati, tanto da avvicinarsi ai 600$ per die pulito (solo il die).

La 5090 purtroppo, ha dei costi veramente fuori dal comune, ed avendo così poche rese, aumenta tutto a livello di logistica, R&D ecc...

Con i 3nm, le differenze sui costi non sono più così elevate attualmente, ma la differenza è che i 3nm, migliorano la densità (salvo le sram), ed un circuito denso almeno 184mt/mm2, porterebbe la 5090 ad essere grossa appena 500mm2.
Questo PP, oltre il perf/watt, ha dannatamente aumentato i costi per via della densità, con Ampere e samsung, pur alloggiando su un PP ai limiti dell'osceno (in fondo erano una mod. dei 10nm, in quanto i 7nm con littografia EUV non soddisfava le richieste di nvidia di 15k unità mensili), si è passati ad una densità 1,8x, tanto da portare il chip della 2080ti, sotto i 400mm2 (3070).

Al momento, la 4090, è la 5080ti no MFG, scheda ancora che eccelle da ogni punto di vista, considerando anche la vram, e può aspettare la serie 6000.

Ciò che in parte ha penalizzato blackwell, è la scelta di rimanere sul 4n e non sul 4np, che nvidia ha riservato alle HPC, altrimenti potevi tirare fuori clock un tantino più elevati, ma niente più.

Evilquantico
20-08-2025, 11:55
Sempre piu' convinto che ormai siamo ai limiti fisici sia di nm che di costi per singola gpu/scheda , per non parlare dei wattaggi e consumi ormai vicini a quelli di un condizionatore su un singolo molex di alimentazione , secondo me a breve gli sviluppatori di OS e Giochi torneranno al Multi GPU , tipo SLI o Crossfire , è l'unica soluzione per avere della grafica sempre piu' fotorealistica a risoluzioni 4K e oltre

Iceman69
20-08-2025, 14:13
Anche il 4n, essendo il più utilizzato sta subendo rincari su rincari, ed è salito abbastanza rispetto quando lo utilizzarono su ADA.
La 5090, si spinge quasi ai limiti del reticolato per restare nei 121mt/mm2, ed i costi, con poco più di 30 rese, sono molto molto elevati, tanto da avvicinarsi ai 600$ per die pulito (solo il die).

La 5090 purtroppo, ha dei costi veramente fuori dal comune, ed avendo così poche rese, aumenta tutto a livello di logistica, R&D ecc...

Con i 3nm, le differenze sui costi non sono più così elevate attualmente, ma la differenza è che i 3nm, migliorano la densità (salvo le sram), ed un circuito denso almeno 184mt/mm2, porterebbe la 5090 ad essere grossa appena 500mm2.
Questo PP, oltre il perf/watt, ha dannatamente aumentato i costi per via della densità, con Ampere e samsung, pur alloggiando su un PP ai limiti dell'osceno (in fondo erano una mod. dei 10nm, in quanto i 7nm con littografia EUV non soddisfava le richieste di nvidia di 15k unità mensili), si è passati ad una densità 1,8x, tanto da portare il chip della 2080ti, sotto i 400mm2 (3070).

Al momento, la 4090, è la 5080ti no MFG, scheda ancora che eccelle da ogni punto di vista, considerando anche la vram, e può aspettare la serie 6000.

Ciò che in parte ha penalizzato blackwell, è la scelta di rimanere sul 4n e non sul 4np, che nvidia ha riservato alle HPC, altrimenti potevi tirare fuori clock un tantino più elevati, ma niente più.

Può essere che i costi siano diventati e resteranno elevati, però così diventa sempre più inutile aggiornare la scheda video, pagare tanto per avere poco non piace a nessuno e si dirottano i soldi verso altre spese che danno più soddisfazione.

Comunque a questo giro quello che mi ha dato più fastidio (come ho detto in molte altre occasioni) è che abbiano tentato di prenderci in giro palesando guadagni prestazionali fantasmagorici veri solo a certe condizioni (e soprattutto non nei giochi che interessano a me...).

dAbOTZ
20-08-2025, 15:15
guadagni prestazionali fantasmagorici

A memoria imperitura.

https://i.ibb.co/mrKq4wWL/5070like4090.png

mikael84
20-08-2025, 15:23
Sempre piu' convinto che ormai siamo ai limiti fisici sia di nm che di costi per singola gpu/scheda , per non parlare dei wattaggi e consumi ormai vicini a quelli di un condizionatore su un singolo molex di alimentazione , secondo me a breve gli sviluppatori di OS e Giochi torneranno al Multi GPU , tipo SLI o Crossfire , è l'unica soluzione per avere della grafica sempre piu' fotorealistica a risoluzioni 4K e oltre

MCM non più SLI, che è diverso.

Può essere che i costi siano diventati e resteranno elevati, però così diventa sempre più inutile aggiornare la scheda video, pagare tanto per avere poco non piace a nessuno e si dirottano i soldi verso altre spese che danno più soddisfazione.

Comunque a questo giro quello che mi ha dato più fastidio (come ho detto in molte altre occasioni) è che abbiano tentato di prenderci in giro palesando guadagni prestazionali fantasmagorici veri solo a certe condizioni (e soprattutto non nei giochi che interessano a me...).

Questa gen. è stata frenata dai limiti fisici dei transistor, quindi, o realizzare chip più costosi, o limitarsi alla fascia work e basta, altre strade non c'erano.
MFG può non piacere, ma ormai, si virerà sempre sull'AI in modo netto.

Non mancheremmo di analizzare la prossima microarchitettura sul thread aspettando.;)

scatolino
21-08-2025, 09:14
In questo momento c' è la ASUS PRIME 5080, in "offerta" venduta e spedita dalle Amazzoni.

scatolino
23-08-2025, 13:19
Se Atene piange Sparta non ride...

https://www.hdblog.it/hardware/articoli/n629141/connettori-12vhpwr-fusi-caso-scheda-amd/

FvR 93
23-08-2025, 16:53
Che vergogna. :doh:

dAbOTZ
23-08-2025, 18:53
Ma come diavolo fa un connettore da 600W a fondersi con una gpu con TDP da 360? Qui qualquadra non cosa.

Cfranco
23-08-2025, 19:25
Ma come diavolo fa un connettore da 600W a fondersi con una gpu con TDP da 360? Qui qualquadra non cosa.
Il connettore è pensato male, progettato peggio e spesso gli adattatori sono fatti col didietro

dAbOTZ
23-08-2025, 21:12
Il connettore non sarà un miracolo di ingegneria, ma se il problema si riducesse a quello, mezzo mondo avrebbe già problemi anche restando ben al di sotto del limite di tolleranza dei 600W come nel suo caso. O l'alimentatore è una chiavica e ha erogato un amperaggio anomalo, o quell'adattatore è una porcheria e il carico si è distribuito male sui pin, e mi gioco una pizza sulla seconda. Ho trovato la foto, e infatti gli si son fusi 2 pin su 6 [quelli inferiori sono la messa a terra]:

https://live.staticflickr.com/65535/54741168344_5cb88428c2_c.jpg

rintintin78
24-08-2025, 09:00
Ciao,
scusate ma io nel Pannello di controllo nvidia nella parte delle schede in alto non ho la sezione display, che mi sarebbe utile per capire se G-Sync funziona correttamente.
Sapete come mai o come si attiva?

https://ibb.co/LhgK6jnP
https://ibb.co/LhgK6jnP

Grazie

LkMsWb
24-08-2025, 09:04
Ciao,
scusate ma io nel Pannello di controllo nvidia nella parte delle schede in alto non ho la sezione display, che mi sarebbe utile per capire se G-Sync funziona correttamente.
Sapete come mai o come si attiva?

https://ibb.co/LhgK6jnP
https://ibb.co/LhgK6jnP

Grazie

Clicca su una delle opzioni del sottomenù Schermo (es. proprio quella del G-Sync), Impostazioni 3D si tramuta in Schermo.

dAbOTZ
24-08-2025, 10:31
Se poi vuoi verificare se funziona scarica la demo Pendulum (https://us.download.nvidia.com/downloads/cool_stuff/demos/Setup_G-SYNC_1.13.exe).

Wikkle
24-08-2025, 11:40
Sapete quale sia il best buy entro i 300 euro non oltre?

Anto_Dur
24-08-2025, 13:41
Boh anche a me superava in volt però ho risolto cambiando cavo. Tuttavia per sicurezza sto cambiando nell'ultimo thor cosi per stare sicuri dato che arriva al limite. Anche se bastava anche l'ultimo strix volendo.

bobby10
24-08-2025, 14:35
Sapete quale sia il best buy entro i 300 euro non oltre?

Per me se la giocano la 5060 8gb e la 7600xt 16gb.
La prima va un po' di più ma la seconda ha il doppio della memoria, le trovi entrambe a 310€ da BPM power.

L i7 che hai in firma ovviamente farà fatica con queste vga

mikael84
24-08-2025, 15:12
Sapete quale sia il best buy entro i 300 euro non oltre?

Siamo nel thread ufficiale delle 5090 -80 -70ti, non GPU entro i 300 euro. Se ti interessa sapere quale GPU possa andare bene per tale cifra, apri un thread dedicato!

Anto_Dur
25-08-2025, 13:13
Ma anche a voi il monitor a volte si spegne con schermo nero guardando hwupgrade e poi si riaccende? Lo fa soltanto qui e non sempre praticamente dopo che ho messo la 5090 mesi fa.

Giusto per sapere se sono io.

scatolino
25-08-2025, 13:15
Ma anche a voi il monitor a volte si spegne con schermo nero guardando hwupgrade e poi si riaccende? Lo fa soltanto qui e non sempre praticamente dopo che ho messo la 5090 mesi fa.

Giusto per sapere se sono io.

Mai successo.

Anto_Dur
25-08-2025, 13:20
Mai successo.

Allora non saprei. Comunque dopo varie patch lo fa molto di meno ma ogni tanto capita. Sarà qualche programma che li da fastidio il sito forse.

Iceman69
25-08-2025, 13:34
Ma anche a voi il monitor a volte si spegne con schermo nero guardando hwupgrade e poi si riaccende? Lo fa soltanto qui e non sempre praticamente dopo che ho messo la 5090 mesi fa.

Giusto per sapere se sono io.

A me rarissimamente succede e ho una 4090, quindi probabilmente non dipende dalla scheda video, io ho sempre imputato la cosa a internet, dato che mi capita solo quando navigo (non su un sito particolare).

rintintin78
25-08-2025, 13:37
Ciao,
quello che vorrei capire è se, ad esempio con GTA V, se lo uso con DLLA sto a circa 80/100FPS e se metto il FG stò sui 160/180 FPS mentre con il MFG(3x) stò a 220FPS ma in molte scene supero i 240 FPS (che è il refresh rate del mio monitor).
In queste tre opzioni non capisco se conviene usare il FG o il MFG (3x) con il cap nel pèannello di controllo Nvidia a 237FPS

Grazie

Saved_ita
25-08-2025, 15:16
Ciao,
quello che vorrei capire è se, ad esempio con GTA V, se lo uso con DLLA sto a circa 80/100FPS e se metto il FG stò sui 160/180 FPS mentre con il MFG(3x) stò a 220FPS ma in molte scene supero i 240 FPS (che è il refresh rate del mio monitor).
In queste tre opzioni non capisco se conviene usare il FG o il MFG (3x) con il cap nel pèannello di controllo Nvidia a 237FPS

Grazie

Conviene che metti il multi x3 (e non passi mai al 4x) perchè ogni volta che superi la frequenza del monitor "tagli" i frames di base per restare entro il range di frequenza del monitor (ammesso che tu abbia appunto settato il limite agli FPS o abbia il Vsync attivo).

https://youtu.be/B_fGlVqKs1k?t=1045

Ma sta cosa presto la sistemeranno perchè già con lossless scaling c'è l'opzione per "adattare" la FG al cap dei frames.

Nel tuo caso specifico, dipende da quanto tempo passi nel range dei 240+ FPS perchè "tagliare" 1 FPS di base" non te ne accorgi ma se la scheda per 3/4 del tempo sta sopra i 237FPS allora potrebbe convenire scendere al 2x perchè, di fatto, col 3x stai perdendo prestazioni.

rintintin78
25-08-2025, 15:19
Conviene che metti il multi x3 perchè ogni volta che superi la frequenza del monitor "tagli" i frames di base per restare entro il range di frequenza del monitor (ammesso che tu abbia appunto settato il limite agli FPS o abbia il Vsync attivo).

https://youtu.be/B_fGlVqKs1k?t=1045

Ma sta cosa presto la sistemeranno perchè già con lossless scaling c'è l'opzione per "adattare" la FG al cap dei frames

Innazitutto grazie per il tuo supporto. Il problema nasce dal fatto che avevo capito che il MFG non è compatibile con il v-syng e con il cap degli fps (per problemi di latenza). Ho capito male io?

Saved_ita
25-08-2025, 16:24
Innazitutto grazie per il tuo supporto. Il problema nasce dal fatto che avevo capito che il MFG non è compatibile con il v-syng e con il cap degli fps (per problemi di latenza). Ho capito male io?

Premesso che non ho una scheda col MFG quindi non ho esperienze dirette.

Ho una banale 4070 e non è che i sistemi siano "incompatibili" semplicemente tipicamente usando la framegen automaticamente attivi reflex (qualunque gioco implementi la MFG deve implementare il pacchetto DLSS4 e implementa obbligatoriamente reflex).

Reflex automaticamente esclude il V-Sync applicando un cap ai frames (circa il 4% del massimo del refresh rate del monitor).

In pratica, il mio caso reale è che se attivo la framegen automaticamente setta il cap del mio monitor (che sarebbe un 170Hz) a 158 FPS e quindi il V-Sync viene automaticamente escluso (poi non so se ti riferivi ad altro).

Dono89
25-08-2025, 16:35
Ciao,
quello che vorrei capire è se, ad esempio con GTA V, se lo uso con DLLA sto a circa 80/100FPS e se metto il FG stò sui 160/180 FPS mentre con il MFG(3x) stò a 220FPS ma in molte scene supero i 240 FPS (che è il refresh rate del mio monitor).
In queste tre opzioni non capisco se conviene usare il FG o il MFG (3x) con il cap nel pèannello di controllo Nvidia a 237FPS

Grazie

Dipende da te. Gta non è frenetico, io farei dlaa e fg che 160 bastano.

O ancora meglio: Zero fg, zero mfg e dlss Q e dovresti star sui 120/130

FvR 93
25-08-2025, 17:12
Io m associo a Dono ma ti direi se in dlaa fai sotto i cento fps, io giocherei così. Mi pare di ricordare inoltre che gta non digeriva benissimo il frame generation ma magari con l'ultimo supporto al dlss4 hanno migliorato qualcosa...

bobby10
25-08-2025, 18:56
Ma tutto questo per il multy? Perché gta5 è na piuma già in raster

scatolino
25-08-2025, 22:41
Può essere la soluzione definitiva?

https://www.tomshw.it/hardware/asrock-lancia-cavo-12v-26-anti-surriscaldamento-2025-08-25

Purtroppo, solo per Psu Asrock.

Anto_Dur
25-08-2025, 22:53
A me rarissimamente succede e ho una 4090, quindi probabilmente non dipende dalla scheda video, io ho sempre imputato la cosa a internet, dato che mi capita solo quando navigo (non su un sito particolare).

Allora forse c e l avevo anche nella 4090 con i nuovi driver ma non ricordo. A meno che non sia la pubblicità che fa andare in tilt qualcosa dato che danno problemi a volte però mi secco usare programmi per toglierli.

Edit: Comunque a me capita solo in questo sito. Sarà che guardo pochi siti di solito reddit e youtube per la maggiorparte ed il resto con lo smartphone.


@bobby in gta con il ray tracing diventa pesantuccio in 4k


@all cmq ho visto un noto youtuber che era andato alla gamescom, volevo andarci anche io, che diceva che le btf possono collegarsi sia davanti che dietro, sempre se sia cosi, per accumulare corrente con i 16 pin. Ora capisco come mai il thor 1600 ne ha due ma ormai ho preso il 1200. Tanto per quel che serve per ora... ci saranno altri psu per quel momento piu convenienti.

Saved_ita
26-08-2025, 14:19
Ma tutto questo per il multy?

Sembra strano che un utente chiede come ottimizzare le performance della sua scheda grafica dotata di una tecnologia che ha pagato profumatamente?

Tenuto conto che il MFG nasce proprio per adeguare i tuoi FPS al refresh rate del monitor che ormai arrivano tranquillamente a 480hz e tempi di risposta sotto gli 0,3ms, in quale altro modo potresti riuscire a sfruttare quel refresh rate (salvo i soliti giochi FPSMMO che girano su una calcolatrice)?

Oltre a questo effettivamente il MFG ha un funzionamento controintuitivo (ovvero, in base alla frequenza del tuo monitor potrebbe tagliare parecchio i frame di base); non è di secondaria importanza scegliere la modalità di framegen che calza meglio seconda degli fps e del refresh rate.

Ovviamente parlo come persona di parte perchè trovo la tecnologia molto utile nei single player "lenti" e in questi l'attiverei sempre perchè è l'unica cosa che effettivamente riduce in maniera massiva i microstutter del motore grafico (l'unico gioco dove non l'attivo è Diablo4 che è anche l'unico gioco in cui non attivo il RT e ne sento tanto la mancanza).

E' anche chiarito che il Vsync semplicemente non può funzionare quando attivi la MFG/FG perchè se ha un monitor G-sync compatibile, ti auto-limiterà gli FPS escludendo il Vsync.

Cutter90
26-08-2025, 14:51
Sembra strano che un utente chiede come ottimizzare le performance della sua scheda grafica dotata di una tecnologia che ha pagato profumatamente?

Tenuto conto che il MFG nasce proprio per adeguare i tuoi FPS al refresh rate del monitor che ormai arrivano tranquillamente a 480hz e tempi di risposta sotto gli 0,3ms, in quale altro modo potresti riuscire a sfruttare quel refresh rate (salvo i soliti giochi FPSMMO che girano su una calcolatrice)?

Oltre a questo effettivamente il MFG ha un funzionamento controintuitivo (ovvero, in base alla frequenza del tuo monitor potrebbe tagliare parecchio i frame di base); non è di secondaria importanza scegliere la modalità di framegen che calza meglio seconda degli fps e del refresh rate.

Ovviamente parlo come persona di parte perchè trovo la tecnologia molto utile nei single player "lenti" e in questi l'attiverei sempre perchè è l'unica cosa che effettivamente riduce in maniera massiva i microstutter del motore grafico (l'unico gioco dove non l'attivo è Diablo4 che è anche l'unico gioco in cui non attivo il RT e ne sento tanto la mancanza).

E' anche chiarito che il Vsync semplicemente non può funzionare quando attivi la MFG/FG perchè se ha un monitor G-sync compatibile, ti auto-limiterà gli FPS escludendo il Vsync.

Si ma il monitor a 480 hz ci vuole e di fatto salvo esigenze veramente, ma veramente specifiche il MFG ha un utilità molto ridotta. Quando in un SP si fanno 100-140 fps sei già più che a posto. Poi si può anche fare 200, ma serve il monitor e cmq la differenza sarà minima se non assente, lato fluidità d'immagine. Si aggiunge poi un pelo di latenza che nei multy non va bene.
Diciamo che in quei giochi "limite" va valuta il caso per caso.
Il gsync non limita i frame, li sincoronizza solo. Il vsync da pannello invece lo fa e lavora benissimo con FG e MFG

rintintin78
26-08-2025, 14:57
Premesso che non ho una scheda col MFG quindi non ho esperienze dirette.

Ho una banale 4070 e non è che i sistemi siano "incompatibili" semplicemente tipicamente usando la framegen automaticamente attivi reflex (qualunque gioco implementi la MFG deve implementare il pacchetto DLSS4 e implementa obbligatoriamente reflex).

Reflex automaticamente esclude il V-Sync applicando un cap ai frames (circa il 4% del massimo del refresh rate del monitor).

In pratica, il mio caso reale è che se attivo la framegen automaticamente setta il cap del mio monitor (che sarebbe un 170Hz) a 158 FPS e quindi il V-Sync viene automaticamente escluso (poi non so se ti riferivi ad altro).

Ti faccio un esempio con GTA V enhanced, quando vado ad attivare il MFG a 4x con G-Sync attivo gli FPS schizzano a oltre 400, ma il mio 32" 4k è a 240Hz, quindi se non ho capito male il G-Sync si disattiva con tutti i vari problemi. Ma leggevo che non è conigliato forzare il v-sync da pannello Nvidia e ne mettere un cap agli FPS perchè crea problemi con il MFG, non so come comportarmi. Anche il 3x sfonda gli FPS della frequenza del mio monitor e il 2x sta sui 160FPS, facendomi perdere le caratteristiche dei 240Hz del monitor.
Quindi mi chiedevo come gestire tutto questo o se l'unica alternativa è usare il 2x e perdermi la differenza dei fotogrammi

In più un utente ha ricevuto la seguente risposta da Nvidia:
Capisco le sue domande e le fornirò una risposta basata sulle informazioni che possiedo.

La confermo che è previsto che la tecnologia di Frame Generation di NVIDIA attivi automaticamente NVIDIA Reflex (per minimizzare la latenza) e disattivi il V-Sync dalle impostazioni interne del gioco (per evitare comportamenti anomali); se si vuole comunque usare il V‑Sync, si può forzare il suo utilizzo dal Pannello di Controllo NVIDIA.

Il V-Sync viene disabilitato perché non è compatibile con il sistema di generazione asincrona dei frame e con la gestione della latenza offerta da Reflex.
Abilitare il V-Sync dal Panello di Controllo NVIDIA è un opzione ma lo si fa a scapito della tecnologia MFG, se si da priorità alla riduzione dello screen tearing.

La configurazione ottimale è quella in cui vengono mantenuti attivi MFG, Reflex e G-Sync mentre viene allo stesso tempo impostato un limite massimo di FPS ad un valore leggermente inferiore rispetto alla frequenza di aggiornamento massima del monitor.
Si può in questo modo ridurre il carico sulla GPU con il MFG, ottenere una latenza minima grazie a Reflex ed una riduzione del tearing grazie al G-Sync il quale è attivo finché gli FPS generati non superano la frequenza massima del monitor.

Forzare l'attivazione di V-Sync tramite il Panello di Controllo NVIDIA e lasciare gli FPS non limitati è una configurazione non-ottimale che può presentare anomalie nella qualità della sessione di gioco - per tale motivo i videogiochi hanno il V-Sync disabilitato di default, perché V-Sync non è compatibile con MFG e Reflex.

Spero che queste informazioni le siano utili e rispettino le sue aspettative.
La prego di non esitare a contattarci per qualsiasi sua ulteriore necessità.

Le auguro una buona giornata ed una buona settimana.

P.S. Nelle prossime 48 ore, nel suo indirizzo di posta elettronica, riceverà un sondaggio nel quale potrà valutare la nostra interazione ed il supporto ricevuto nel suo complesso. Fornire questo riscontro le richiederà solo 1 minuto e sarà da parte nostra molto apprezzato!

Cordiali saluti,

dAbOTZ
26-08-2025, 15:24
Hai provato così?

- gsync attivo da pannello Nvidia
- vsync attivo da pannello Nvidia
- MFG attiva nel gioco
- vsync disattivato nel gioco
- framecap 237 da pannello Nvidia

rintintin78
26-08-2025, 15:26
Hai provato così?

- gsync attivo da pannello Nvidia
- vsync attivo da pannello Nvidia
- MFG attiva nel gioco
- vsync disattivato nel gioco
- framecap 237 da pannello Nvidia

Si, ma come ti dicevo nel messaggio precedente Nvidia sconsiglia di attivare il V-Sync da pannello di controllo con la MFG, in quanto si perderebbero anche degli FPS nativi (non generati dalla AI) il che farebbe funzionare male il MFG

Cutter90
26-08-2025, 15:34
Si, ma come ti dicevo nel messaggio precedente Nvidia sconsiglia di attivare il V-Sync da pannello di controllo con la MFG, in quanto si perderebbero anche degli FPS nativi (non generati dalla AI) il che farebbe funzionare male il MFG

Tu prova e vedi che non funziona male nulla :D

dAbOTZ
26-08-2025, 15:35
Si, ma come ti dicevo nel messaggio precedente Nvidia sconsiglia di attivare il V-Sync da pannello di controllo con la MFG, in quanto si perderebbero anche degli FPS nativi (non generati dalla AI) il che farebbe funzionare male il MFG

Pardon my french, ma quella persona del supporto Nvidia sta dicendo una marea di cazzate.

FG/MFG non sono "incompatibili" con vsync: semplicemente, FG lavora su una coda di frame e se aggiungi anche vsync nel gioco rischi più latenza. Ma vsync nel pannello driver resta compatibilissimo, perché è parte della pipeline di gsync.

Il vsync da pannello Nvidia NON tocca la pipeline di MFG. Serve solo come ultima ratio per quando la somma nativi + generati supera la frequenza massima del monitor, in quel caso entra in gioco il framecap e il sync verticale per evitare tearing. Non "taglia" i frame nativi. Semplicemente sincronizza l’uscita complessiva [nativi + generati] al refresh del monitor.

Se attivi vsync nel gioco, allora sì, puoi avere più latenza e persino dei frame nativi persi o accodati male, e quindi MFG peggiora. Ma se lo attivi nel pannello driver non c’è questa penalizzazione. È per questo che la configurazione standard rimane vsync OFF in-game e vsync ON nel driver.

Cutter90
26-08-2025, 15:38
Pardon my french, ma quella persona del supporto Nvidia sta dicendo una marea di cazzate.

FG/MFG non sono "incompatibili" con vsync: semplicemente, FG lavora su una coda di frame e se aggiungi anche vsync nel gioco rischi più latenza. Ma vsync nel pannello driver resta compatibilissimo, perché è parte della pipeline di gsync.

Il vsync da pannello Nvidia NON tocca la pipeline di MFG. Serve solo come ultima ratio per quando la somma nativi + generati supera la frequenza massima del monitor, in quel caso entra in gioco il framecap e il sync verticale per evitare tearing. Non "taglia" i frame nativi. Semplicemente sincronizza l’uscita complessiva [nativi + generati] al refresh del monitor.

Se attivi vsync nel gioco, allora sì, puoi avere più latenza e persino dei frame nativi persi o accodati male, e quindi MFG peggiora. Ma se lo attivi nel pannello driver non c’è questa penalizzazione. È per questo che la configurazione standard rimane vsync OFF in-game e vsync ON nel driver.

E aggiungo a quello che hai giustamente detto tu che non serve nemmeno abilitare un frame cap. E' sufficiente attivare Reflex ingame e/o la modalità a bassa latenza su "ultra" da pannello. Così i frame li mette già sotto gli hz del monitor e si viaggia perfetti

Saved_ita
26-08-2025, 17:23
Ti faccio un esempio con GTA V enhanced, quando vado ad attivare il MFG a 4x con G-Sync attivo gli FPS schizzano a oltre 400, ma il mio 32" 4k è a 240Hz, quindi se non ho capito male il G-Sync si disattiva con tutti i vari problemi. Ma leggevo che non è conigliato forzare il v-sync da pannello Nvidia e ne mettere un cap agli FPS perchè crea problemi con il MFG, non so come comportarmi. Anche il 3x sfonda gli FPS della frequenza del mio monitor e il 2x sta sui 160FPS, facendomi perdere le caratteristiche dei 240Hz del monitor.
Quindi mi chiedevo come gestire tutto questo o se l'unica alternativa è usare il 2x e perdermi la differenza dei fotogrammi

Quando dici che gli FPS ti "schizzano" ad oltre 400 è perchè lo vedi da interfaccia del gioco? Il mio sospetto è che qualunque cosa tu stia usando per misurare il framerate non stia visualizzando il dato corretto.

Nel mio caso qualunque gioco abbia provato, reflex fa esattamente quello che ti dice l'assistenza nVidia.

Ti linko anche il topic su blurbuster che possiamo definire la fonte "ufficiale" mentre tutto il resto è speculazione:

https://forums.blurbusters.com/viewtopic.php?t=7522

Da questo si legge chiaramente:

With G-SYNC + NVCP V-SYNC + Reflex, it has been suggested in Nvidia documentation that Reflex behaves like LLM "Ultra" in that it sets an auto FPS limit slightly below the refresh rate

Quindi se hai Reflex ovvero la multiframegen attiva, il refresh rate del monitor non lo superi, se sta succedendo, c'è qualcosa di strano perchè non è come dovrebbe funzionare la framegen.


In più un utente ha ricevuto la seguente risposta da Nvidia:
La configurazione ottimale è quella in cui vengono mantenuti attivi MFG, Reflex e G-Sync mentre viene allo stesso tempo impostato un limite massimo di FPS ad un valore leggermente inferiore rispetto alla frequenza di aggiornamento massima del monitor.
E questo è quello che risulta in coerenza con le specifiche di funzionamento delle tech.
Vuoi attivare il Vsync?
Fallo
l'unico motivo per farlo, te lo spiega sempre in blurbuster (e non c'entra mai il refresh rate massimo che tanto non superererai) è dovuto a variazioni repentine del frametime (per cui il Vsync dovrebbe forzare una latenza prima di procesare il frame successivo anche se non c'è superamento del refresh rate del monitor); personalmente sta cosa non la ho mai verificata e il Vsync semplicemente lo ignoro o disattivo.

Pardon my french, ma quella persona del supporto Nvidia sta dicendo una marea di cazzate.

Non ha detto cazzate ha semplicemente semplificato il discorso.


FG/MFG non sono "incompatibili" con vsync: semplicemente, FG lavora su una coda di frame e se aggiungi anche vsync nel gioco rischi più latenza. Ma vsync nel pannello driver resta compatibilissimo, perché è parte della pipeline di gsync.

Sia la Framegen che la MultiFrameGen settano il refresh rate del monitor fuori dal range del Vsync.
Il motivo, come ti ha ha anche detto il supporto nVidia, è che non può esistere Frame generation senza reflex.
Se si attiva reflex viene automaticamente imposto un cap ai frame massimi inferiore alla frequenza massima del monitor quindi il Vsync, attivalo o disattivalo, non cambia niente, semplicemente non entrerà mai in funzione perchè il framerate non supererà mai quello concesso del monitor.



Il vsync da pannello Nvidia NON tocca la pipeline di MFG. Serve solo come ultima ratio per quando la somma nativi + generati supera la frequenza massima del monitor, in quel caso entra in gioco il framecap e il sync verticale per evitare tearing.


Che non può verificarsi perchè Reflex + Gsync limita gli FPS massimi SEMPRE quindi il Vsync attivalo pure ma l'unico vantaggio che potrebbe offrire è se hai variazioni repentine di framerate (come già detto, io non lo ho mai visto).


Se attivi vsync nel gioco, allora sì, puoi avere più latenza e persino dei frame nativi persi o accodati male, e quindi MFG peggiora. Ma se lo attivi nel pannello driver non c’è questa penalizzazione. È per questo che la configurazione standard rimane vsync OFF in-game e vsync ON nel driver.

Attivalo o disattivalo, di fatto, se attivi la MFG, non lo stai neanche usando quindi tipicamente non farà assolutamente nulla (se invece hai un framerate ballerino.... cosa molto plausibile con una 5090 :rolleyes: , potrebbe evitare qualche screen tearing).

Anto_Dur
26-08-2025, 17:40
Comunque ho montato la btf 5090, era arrivata giorni fa, ma avevo il colpo della strega e non l'ho potuta montare, ed ho notato che il controllo dei pin segna tutti rossi a 0 dunque non rileva quello del btf :) magari è cosi nuova che ancora non l'hanno abilitato o devo aggiornare il programma magari? Dato che sul sito asus italia la pagina non è disponibile della btf 5090 lol. Troppo nuova :D

Edit: Anche con la nuova versione vede uguale.

dAbOTZ
26-08-2025, 18:18
*cut*

A parte il fatto che non sono io l'utente interessato, stai facendo un po' di confusione. Il vsync on da pannello Nvidia serve eccome, sia come rete di sicurezza, sia perché il framecap imposto da Reflex si attiva solo col driver vsync on [dopodiché per stare ancora più tranquilli si può impostare manualmente un framecap da driver per prevalere su Reflex].

Tant'è che è indicato anche nel thread che hai linkato:


G-SYNC on + NVCP V-SYNC on + in-game V-SYNC on OR off + Reflex ("On" or "On + Boost")

Reflex applies an automatic FPS limit slightly below the refresh rate.



G-SYNC on OR off + NVCP V-SYNC off OR "Use 3D application setting" + in-game V-SYNC on OR off + Reflex ("On" or "On + Boost")

Reflex does not apply an automatic FPS limit slightly below the refresh rate, but retains all other functionality.

rintintin78
27-08-2025, 06:43
Se si attiva reflex viene automaticamente imposto un cap ai frame massimi inferiore alla frequenza massima del monitor quindi il Vsync, attivalo o disattivalo, non cambia niente, semplicemente non entrerà mai in funzione perchè il framerate non supererà mai quello concesso del monitor.



Ciao,
dalla mia esperienza non è così: infatti in tutti i giochi che uso se si tiene disattivato il v-sync e attivato Reflex da pannello di controllo Nvidia gli FPS superano gli HZ del monitor

Cutter90
27-08-2025, 07:00
A parte il fatto che non sono io l'utente interessato, stai facendo un po' di confusione. Il vsync on da pannello Nvidia serve eccome, sia come rete di sicurezza, sia perché il framecap imposto da Reflex si attiva solo col driver vsync on [dopodiché per stare ancora più tranquilli si può impostare manualmente un framecap da driver per prevalere su Reflex].

Tant'è che è indicato anche nel thread che hai linkato:

Ciao,
dalla mia esperienza non è così: infatti in tutti i giochi che uso se si tiene disattivato il v-sync e attivato Reflex da pannello di controllo Nvidia gli FPS superano gli HZ del monitor

Esattamente. Perchè Reflex cappi sotto gli hz massimi del monitor va attivato vsync da pannello.

dAbOTZ
27-08-2025, 09:31
Comunque ho montato la btf 5090, era arrivata giorni fa, ma avevo il colpo della strega e non l'ho potuta montare, ed ho notato che il controllo dei pin segna tutti rossi a 0 dunque non rileva quello del btf :) magari è cosi nuova che ancora non l'hanno abilitato o devo aggiornare il programma magari? Dato che sul sito asus italia la pagina non è disponibile della btf 5090 lol. Troppo nuova :D

Edit: Anche con la nuova versione vede uguale.

Non ho capito. Se il connettore è btf come farebbe il software a rilevare i pin dell'high power, che non hai?

rintintin78
27-08-2025, 10:33
Ciao,
sono riuscito a parlare con un operatore di Nvidia via chat, che mi ha confermato che le impostazioni variano da gioco a gioco e che bisogna fare delle prove. Ma soro riuscito a capire quale sarebbe l'impostazione ideale, che a suo dire è la seguente: MFG + G-sync + Reflex + V-Sync da pannello Nvidia.
La cosa su cui non è stato molto chiaro è se utilizzare il reflex da game o da pannello Nvidia; ma ad esempio su GTA V il Reflex in game è abilitato in automatico e non è disattivabile

Cutter90
27-08-2025, 10:44
Ciao,
sono riuscito a parlare con un operatore di Nvidia via chat, che mi ha confermato che le impostazioni variano da gioco a gioco e che bisogna fare delle prove. Ma soro riuscito a capire quale sarebbe l'impostazione ideale, che a suo dire è la seguente: MFG + G-sync + Reflex + V-Sync da pannello Nvidia.
La cosa su cui non è stato molto chiaro è se utilizzare il reflex da game o da pannello Nvidia; ma ad esempio su GTA V il Reflex in game è abilitato in automatico e non è disattivabile

Ma... hai letto i nostri messaggi precedenti? perchè parli ancora con gli operatori? :mbe:

rintintin78
27-08-2025, 10:48
Ma... hai letto i nostri messaggi precedenti? perchè parli ancora con gli operatori? :mbe:

Perchè, un utente sosteneva cose divrse da quelle che sostenevi tu e poi in teoria quello è un operatore di Nvida che dovrebbe avere delle linee guida che gli fornisce casa madre. E comunque sostiene la stessa cosa che dicevi tu.

Cutter90
27-08-2025, 10:57
Perchè, un utente sosteneva cose divrse da quelle che sostenevi tu e poi in teoria quello è un operatore di Nvida che dovrebbe avere delle linee guida che gli fornisce casa madre. E comunque sostiene la stessa cosa che dicevi tu.

Se leggi non solo io sostengo quelle cose, nei messaggi precedenti. Fidati che alle volte ne sanno di più gli utenti di nvidia stessa, anche per ragioni di "marketing" :)

Anto_Dur
27-08-2025, 12:21
Non ho capito. Se il connettore è btf come farebbe il software a rilevare i pin dell'high power, che non hai?

In realtà le btf nuove hanno anche i connettori davanti ed inoltre il collegamento btf dietro alla scheda madre per alimentarla c e un 16 pin.

dAbOTZ
27-08-2025, 13:04
Ciao,
sono riuscito a parlare con un operatore di Nvidia via chat, che mi ha confermato che le impostazioni variano da gioco a gioco e che bisogna fare delle prove. Ma soro riuscito a capire quale sarebbe l'impostazione ideale, che a suo dire è la seguente: MFG + G-sync + Reflex + V-Sync da pannello Nvidia.
La cosa su cui non è stato molto chiaro è se utilizzare il reflex da game o da pannello Nvidia; ma ad esempio su GTA V il Reflex in game è abilitato in automatico e non è disattivabile

Da game. Reflex in-game è l'implementazione nativa nell'engine del gioco, ha accesso alla pipeline completa del gioco, pertanto è più efficace nello svuotare la coda di rendering.

Reflex da pannello è un'impostazione a livello driver più generica, non si integra direttamente nell'engine ma forza comunque la gpu a renderizzare i frame con una coda minimale. È meno efficiente rispetto a reflex in-game, ma fa da surrogato se il gioco non ha reflex nativo.

In soldoni se il gioco supporta reflex usa quello, se no usa quello da pannello come fallback.

Detto ciò comprendo benissimo lo scetticismo nei confronti della community rispetto ad una risposta da parte del supporto ufficiale, ma loro rispondono in base ad una checklist, noi ci basiamo su esperienza accumulata in anni di test sul campo da parte di milioni di utenti. La combinazione corretta per il tuo caso è quella riportata sopra, che prevede vsync attivo da pannello di modo che il reflex in-game imposti il framecap, con eventuale framecap manuale da pannello come salvagente. Il tutto funziona come puro effetto collaterale di una combinazione di impostazioni che al supporto nvidia non quadra, ma sappiamo per certo che funziona benissimo.

dAbOTZ
27-08-2025, 13:06
In realtà le btf nuove hanno anche i connettori davanti ed inoltre il collegamento btf dietro alla scheda madre per alimentarla c e un 16 pin.

Aah ok, mi mancava quella parte.

Anto_Dur
27-08-2025, 13:17
Aah ok, mi mancava quella parte.

Tranquillo :) pensavo che lo sapevi dato che l'avevo scritto qualche pagina addietro ma capita di non vederlo con tutto quello che si scrive. Diciamo che sono universali ora. C'è anche il copri pin davanti se non si usa.

Edit: Ora è disponibile anche il 1600 thor 3 su amazon italia e lo danno a settembre.

Cutter90
27-08-2025, 15:00
Cmq, ero tutto carico per la remastered di Metal gear, dato che è un capito che non ho giocato. Vado a vedere come gira su 5090.... Lumen software, meh, niente ultrawide, prestazioni scarse e soprattutto... cap a 60 FPS, anche HDr sembra avere problemi
Senza parole.

Dono89
27-08-2025, 18:26
Cutter, siamo coetanei, mi stai dicendo che non hai mai giocato a msg su ps? Davvero?

Entra Mikael e ti banna :)

micronauta1981
27-08-2025, 18:27
Cmq fino a qualche release fa FG+ vsinc sulle 5090 dava problemi di latenza..il gioco girava malissimo..non so se hanno poi sistemato

FvR 93
27-08-2025, 19:56
Metal Gear è fatto veramente col Qlo. Io non capirò mai le Software House che fanno uscire i giochi in questo modo senza alcun senso di vergogna. Finché vendono hanno ragione loro, evidentemente.

2025 ragazzi.

Cutter90
27-08-2025, 20:26
Cutter, siamo coetanei, mi stai dicendo che non hai mai giocato a msg su ps? Davvero?

Entra Mikael e ti banna :)

Lascia stare. Periodo buio della mia storia gaming. Non passa giorni che maledica quel periodo in cui non giocavo.
Ecco perché è davvero fondamentale per me recuperarlo. Ma cavoli, così me la fanno difficile.

Cutter90
27-08-2025, 20:27
Cmq fino a qualche release fa FG+ vsinc sulle 5090 dava problemi di latenza..il gioco girava malissimo..non so se hanno poi sistemato

Mai avuto problemi di questo tipo

dAbOTZ
27-08-2025, 20:53
MGS è stato rimasterizzato dagli stessi Virtuos di Oblivion, a pensar male si fa peccato ma..

Di seguito come si comporta su 5090 e 5070Ti. 5080 non pervenuta.

https://live.staticflickr.com/65535/54749031519_9b648debcf.jpg

Dono89
27-08-2025, 21:30
MGS è stato rimasterizzato dagli stessi Virtuos di Oblivion, a pensar male si fa peccato ma..

Di seguito come si comporta su 5090 e 5070Ti. 5080 non pervenuta.

https://live.staticflickr.com/65535/54749031519_9b648debcf.jpg


C'è la 5080 in raster, ma non nei test di upscaler.

Senza, in 2k, una 5090 fa 90fps contro i 56 della 70ti. È il 60% in più, scala bene direi. La 5080, mediamente fa un +15% dalla 70ti, tutto in linea direi

Anto_Dur
28-08-2025, 07:12
Cutter, siamo coetanei, mi stai dicendo che non hai mai giocato a msg su ps? Davvero?

Entra Mikael e ti banna :)

Apparte gli scherzi io non ho mai preso una console tipo play station o xbox.


Solo il gameboy e sega master system ho avuto ma forse prendo la play per gta 6 ma ci devo ancora pensare. Dicevo cosi anche per red dead ma poi non l'ho presa :)

Cutter90
28-08-2025, 07:16
C'è la 5080 in raster, ma non nei test di upscaler.

Senza, in 2k, una 5090 fa 90fps contro i 56 della 70ti. È il 60% in più, scala bene direi. La 5080, mediamente fa un +15% dalla 70ti, tutto in linea direi

Scala bene si, ma da prestazioni completamente sballate. Cioè, o ha un RT hardware oppure 60 fps con il dlaa con la 5090 non sono nemmeno pensabili. Ma non si vergognano ad immettere un prodotto in questo stato sul mercato? Cioè, non ha nemmeno il Frame gen.... boh

dAbOTZ
28-08-2025, 11:33
C'è la 5080 in raster, ma non nei test di upscaler.

Senza, in 2k, una 5090 fa 90fps contro i 56 della 70ti. È il 60% in più, scala bene direi. La 5080, mediamente fa un +15% dalla 70ti, tutto in linea direi

Quello sì, ma ho visto qualche video e per quel livello grafico complessivo è inaccettabile che a 4K neanche la high end riesca a raggiungere 60 fps in nativo. Dovrebbe fare molto di più, oppure dovrebbero presentarmi un graficone fuori scala.

Ma in via generale non ricordo nelle gen precedenti un così ampio divario fra i requisiti max dei giochi e le prestazioni dell'hardware attuale, a parte le dovute eccezioni ben ottimizzate stiamo arrancando con un po' tutti i titoli indipendentemente dall'hardware.

Sarà gran colpa di motori-mattone e titoli non ottimizzati, ma di fatto se vai a vedere un po' di benchmark correnti e li confronti con quelli di qualche anno fa, ai titoli attuali gli si sta dietro sempre di meno, per non parlare poi del rapporto fps/$ sempre più basso.

La mia impressione [brutta] è che si stia raggiungendo la saturazione prestazionale, col risultato di ritrovarsi ogni anno che passa a dover spendere molto di più non solo per il sintomatico aumento dei prezzi, ma anche perché l'high end si avvicina sempre di più a dover essere la norma per poter ottenere prestazioni decenti. E' disarmante.

/rant

Cutter90
28-08-2025, 13:04
Quello sì, ma ho visto qualche video e per quel livello grafico complessivo è inaccettabile che a 4K neanche la high end riesca a raggiungere 60 fps in nativo. Dovrebbe fare molto di più, oppure dovrebbero presentarmi un graficone fuori scala.

Ma in via generale non ricordo nelle gen precedenti un così ampio divario fra i requisiti max dei giochi e le prestazioni dell'hardware attuale, a parte le dovute eccezioni ben ottimizzate stiamo arrancando con un po' tutti i titoli indipendentemente dall'hardware.

Sarà gran colpa di motori-mattone e titoli non ottimizzati, ma di fatto se vai a vedere un po' di benchmark correnti e li confronti con quelli di qualche anno fa, ai titoli attuali gli si sta dietro sempre di meno, per non parlare poi del rapporto fps/$ sempre più basso.

La mia impressione [brutta] è che si stia raggiungendo la saturazione prestazionale, col risultato di ritrovarsi ogni anno che passa a dover spendere molto di più non solo per il sintomatico aumento dei prezzi, ma anche perché l'high end si avvicina sempre di più a dover essere la norma per poter ottenere prestazioni decenti. E' disarmante.

/rant

Io da quando iniziarono ad uscire i primi giochi Ue5 che storsi non poco il naso. Ormai sono passati anni e abbiamo stutter, performance terribili e graficamente se non fosse per il RT Hardaware saremmo ancora indietro.
Cioè, delle due se non vuoi implementare nulla e non sai programmare, usa UE4 e lo programmi come si deve.
Vedi un Lies of P. Tecnicamente eccellenza nei souls, leggerissimo e UE4.

dAbOTZ
28-08-2025, 13:49
Centrato. Che è poi a leggere un po' ovunque uno dei motivi per cui molti han deciso di saltare a piè pari l'high end di questa gen, a che ti serve l'hardware di punta se poi la maggior parte del software non lo sfrutta adeguatamente, col risultato che a conti fatti l'hardware top ti serve per compensare i limiti del software invece di valorizzarlo?

Personalmente mi ci accodo e prima di passare all'high end attendo AM6 / serie 6000, auspicando che nel frattempo la situazione lato software migliori..

Iceman69
28-08-2025, 14:04
Centrato. Che è poi a leggere un po' ovunque uno dei motivi per cui molti han deciso di saltare a piè pari l'high end di questa gen, a che ti serve l'hardware di punta se poi la maggior parte del software non lo sfrutta adeguatamente, col risultato che a conti fatti l'hardware top ti serve per compensare i limiti del software invece di valorizzarlo?

Personalmente mi ci accodo e prima di passare all'high end attendo AM6 / serie 6000, auspicando che nel frattempo la situazione lato software migliori..

Più che altro è la dimostrazione che pagare uno sproposito per trucchi e trucchetti che fanno sembrare migliori le prestazioni è una sciocchezza se poi chi produce il software non inserisce la possibilità di usare questi trucchi e i trucchetti.
La potenza bruta invece funziona sempre ed è l'unica cosa che ha senso pagare, poi ci sono anche i trucchetti, bene, ma non ti pago per qualcosa che funziona solo a determinate condizioni come fossero vere prestazioni in più.
Hai un limite tecnologico? Problema tuo superalo, non puoi? Si salta la generazione, vedremo al prossimo giro.

Cutter90
28-08-2025, 14:32
Più che altro è la dimostrazione che pagare uno sproposito per trucchi e trucchetti che fanno sembrare migliori le prestazioni è una sciocchezza se poi chi produce il software non inserisce la possibilità di usare questi trucchi e i trucchetti.
La potenza bruta invece funziona sempre ed è l'unica cosa che ha senso pagare, poi ci sono anche i trucchetti, bene, ma non ti pago per qualcosa che funziona solo a determinate condizioni come fossero vere prestazioni in più.
Hai un limite tecnologico? Problema tuo superalo, non puoi? Si salta la generazione, vedremo al prossimo giro.

Mica tanto. Perchè MGS il dlss c'è e per fortuna. E' ormai molto molto più importnate della potenza bruta. Il problema è che miracoli non ne fa. Pensa se non ci fosse stato il dlss..... con la 5090 facevi 60 fps e stop, roba vergognosa.

Lato RT, nanite ecce ecc, non sono trucchetti ma avanzamenti tecnologici puri. Ma ovviamente devono essere programmati/bili in maniera giusta.

Sealea
28-08-2025, 15:46
Mica tanto. Perchè MGS il dlss c'è e per fortuna. E' ormai molto molto più importnate della potenza bruta. Il problema è che miracoli non ne fa. Pensa se non ci fosse stato il dlss..... con la 5090 facevi 60 fps e stop, roba vergognosa.

Lato RT, nanite ecce ecc, non sono trucchetti ma avanzamenti tecnologici puri. Ma ovviamente devono essere programmati/bili in maniera giusta.

il discorso è molto ampio perché io vedo che il mattone vero rimane l'RT, è quello che -di solito- uccide.
che poi ci sia un'ottimizzazione pietosa del 90% dei giochi U5 è agli occhi di tutti ma solitamente questi problemi venivano sopperiti con la potenza bruta. ormai non si può più fare a fronte di una grafica che secondo me, non migliora di pari passo alla potenza necessaria per gestirla. un'ovvietà.
il dlss è ormai una tecnologia ben sviluppata e che purtroppo come avevamo già previsto in tempi non sospetti, è diventata indispensabile. quello che non pensavo è che lo sarebbe diventata così in fretta.

quello che a me continua a lasciare molti dubbi su fluidità, artefatti vari etc rimane il FG.

Cutter90
28-08-2025, 17:05
il discorso è molto ampio perché io vedo che il mattone vero rimane l'RT, è quello che -di solito- uccide.
che poi ci sia un'ottimizzazione pietosa del 90% dei giochi U5 è agli occhi di tutti ma solitamente questi problemi venivano sopperiti con la potenza bruta. ormai non si può più fare a fronte di una grafica che secondo me, non migliora di pari passo alla potenza necessaria per gestirla. un'ovvietà.
il dlss è ormai una tecnologia ben sviluppata e che purtroppo come avevamo già previsto in tempi non sospetti, è diventata indispensabile. quello che non pensavo è che lo sarebbe diventata così in fretta.

quello che a me continua a lasciare molti dubbi su fluidità, artefatti vari etc rimane il FG.

Ma come "purtroppo" grazie al dlss abbiamo performance migliori unite ad una qualità grafica migliore grazie al sua AA. Per fortuna è ovunque. Ma tu prova ad immaginare senza a che punto saremmo.
Lato RT se un Wukong in PT mi gira meglio di MGS con Lumen Software c'è nettamente qualcosa che non va.
Il FG se usato nelle condizioni giuste è fenomenale. Ad esempio in MGS appena uscito serve come il pane.

Sealea
29-08-2025, 08:15
Ma come "purtroppo" grazie al dlss abbiamo performance migliori unite ad una qualità grafica migliore grazie al sua AA. Per fortuna è ovunque. Ma tu prova ad immaginare senza a che punto saremmo.
Lato RT se un Wukong in PT mi gira meglio di MGS con Lumen Software c'è nettamente qualcosa che non va.
Il FG se usato nelle condizioni giuste è fenomenale. Ad esempio in MGS appena uscito serve come il pane.

senza il dlss e coi giochi al lancio che farebbero 30fps su schede da 1xxx€, secondo me, lato ottimizzazione si impegnerebbero decisamente di più.

Cutter90
29-08-2025, 08:31
senza il dlss e coi giochi al lancio che farebbero 30fps su schede da 1xxx€, secondo me, lato ottimizzazione si impegnerebbero decisamente di più.

Mettiamo pure che sia così (cosa che non penso affatto), le performance sarebbero cmq quelle di un dlss quality. Quindi che differenza farebbe? Anzi, ci sarebbe ancora margine di performance grazie agli altri preset dlss.....
Esempio:
- il gioco fa 70 fps senza dlss. "ottimizzo meglio" arrivo ad 82, con un pessimo AA come il TSR o il TAA.
- Il gioco fa 70 fps senza dlss. Metto dlss Q e arrivo ad 82, balanced a 95 e performance a 105, il tutto con il dlaa usabile e il dlss che cmq sarebbe migliore del TAA
Non c'è "partita" :)

micronauta1981
29-08-2025, 08:47
Mai avuto problemi di questo tipo

https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/559991/572xx-framegen-v-sync-stutter-issues-you-are-not/

Sealea
29-08-2025, 08:56
Mettiamo pure che sia così (cosa che non penso affatto), le performance sarebbero cmq quelle di un dlss quality. Quindi che differenza farebbe? Anzi, ci sarebbe ancora margine di performance grazie agli altri preset dlss.....
Esempio:
- il gioco fa 70 fps senza dlss. "ottimizzo meglio" arrivo ad 82, con un pessimo AA come il TSR o il TAA.
- Il gioco fa 70 fps senza dlss. Metto dlss Q e arrivo ad 82, balanced a 95 e performance a 105, il tutto con il dlaa usabile e il dlss che cmq sarebbe migliore del TAA
Non c'è "partita" :)

ma come non cambia, cambierebbe la base di partenza e col dlss Q si farebbero 120fps più o meno ovunque

bobby10
29-08-2025, 09:12
senza il dlss e coi giochi al lancio che farebbero 30fps su schede da 1xxx€, secondo me, lato ottimizzazione si impegnerebbero decisamente di più.

La penso anche io così come tra l altro è sempre stato.
Ora mi sembra una pessima ottimizzazione studiata a posta per far passare fregnacce tipo dlss e fg come le nuove tecnologie indispensabili

Cutter90
29-08-2025, 10:47
ma come non cambia, cambierebbe la base di partenza e col dlss Q si farebbero 120fps più o meno ovunque

Eh? Cosa stai dicendo? Guarda che tra ottimizzare come si deve un titolo e non farlo balleranno 10, massimo 20 fps.... non ha senso quello che dici

Cutter90
29-08-2025, 10:50
La penso anche io così come tra l altro è sempre stato.
Ora mi sembra una pessima ottimizzazione studiata a posta per far passare fregnacce tipo dlss e fg come le nuove tecnologie indispensabili
Leggi sopra. Voi mi sa che avete un idea un po' "utopistica" di cosa sgnifichi "ottimizzare".
Tralasciando che se già non ci fosse stutter nei giochi UE5 sarebbe già buono.

https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/559991/572xx-framegen-v-sync-stutter-issues-you-are-not/

Se va beh. lì è un carnaio di problemi. Se guardi li ad ogni driver si hanno problemi di qualsiasi tipo. Io avrò avuto si e no 2 problemi in 10 anni di driver....

micronauta1981
29-08-2025, 11:55
Li avevo anche io dei problemi attivandoli insieme,magari non tutti i giochi, sicuramente stalker aveva quel problema,poi magari sono stati risolti

dAbOTZ
29-08-2025, 12:28
I problemi di framepacing con FG attiva li ho rilevati anch'io, sia in CP2077 sia in Stalker, ma non ricordo da quale release driver non li ho più, credo dai 576.88. Ho comunque certezza che il fix non sia dovuto ad un aggiornamento dei giochi, poiché non ho più aggiornato nessuno dei due. Era particolarmente evidente in CP2077, che perdeva sistematicamente 1 frame ogni 3 secondi. L'unico workaround, che incrociando le dita non pare essere più necessario, era forzare un VRR limit da Special K.

Si tratta comunque di casi che non tutti riscontrano, anche chi ne è affetto può non accorgersene per nulla se gioca con kb+m. La fluidità dei movimenti di camera data dai controller è [era?] invece compromessa in modo evidente.

Saved_ita
29-08-2025, 13:30
Perchè, un utente sosteneva cose divrse da quelle che sostenevi tu e poi in teoria quello è un operatore di Nvida che dovrebbe avere delle linee guida che gli fornisce casa madre. E comunque sostiene la stessa cosa che dicevi tu.
Non so se sono l'utente a cui ti riferivi comunque ho rifatto i test ed effettivamente mi scuso ma stavo sbagliando.

Per impostare il cap al frame quando attivi la FG/MFG devi attivare il Vsync da pannello di controllo nVidia.

A mia discolpa posso dire che quell'impostazione, una volta provata nell'unico gioco che mi permetta di simulare un caso in cui attivando la framegen vado sopra il ref rate del monitor, ovvero Diablo4, dava risultata pessimi.

In diablo4 per ridurre lo stuttering ho dovuto settare il cap degli FPS tramite rivatuner (sempre mantenendo il Vsync disattivo) e quindi per me il cap era sempre a 158 (quello che avrebbe impostato reflex + Vsync) attivando o disattivando il vsync.

Dono89
29-08-2025, 14:23
Il problema non è di ottimizzazione, ma che oggi costa molto di più sviluppare giochi, poi hai la miriade di console. Quindi o triplichi i costi o fai un'accozzaglia che più o meno va bene ovunque

Ed ecco che abbiamo a poco costo (poco, tantissimo) qualcosa che fai girare ovunque e rientri nei costi esagerati di sviluppo

Sarà sempre così, ormai anche le esclusive infatti non esistono nemmeno più.

scatolino
29-08-2025, 14:58
Nuovo driver ufficiale: 581.15

FvR 93
29-08-2025, 15:05
Stando a quanto dice il CEO di Epic Games, Tim Sweeney, i problemi con l'Unreal Engine sono dovuti al fatto che gli sviluppatori programmano per l'hardware di fascia top e lasciano l'ottimizzazione nelle fasi finali. A suo dire dovrebbero progettare sin dal principio per hardware di fascia più bassa completando questo step prima di aver completato i contenuti di gioco.

Sweeney ha riconosciuto che DLSS e FSR oggi vengono usate più per mascherare i problemi di performance anziché essere un aiuto ulteriore. In pratica scarica la palla solo sugli sviluppatori.

La mia opinione personale è che i miglioramenti grafici che abbiamo visto negli ultimi anni non giustificano mai l'enormità di problemi che hanno comportato.

Cutter90
29-08-2025, 15:11
Stando a quanto dice il CEO di Epic Games, Tim Sweeney, i problemi con l'Unreal Engine sono dovuti al fatto che gli sviluppatori programmano per l'hardware di fascia top e lasciano l'ottimizzazione nelle fasi finali. A suo dire dovrebbero progettare sin dal principio per hardware di fascia più bassa completando questo step prima di aver completato i contenuti di gioco.

Sweeney ha riconosciuto che DLSS e FSR oggi vengono usate più per mascherare i problemi di performance anziché essere un aiuto ulteriore. In pratica scarica la palla solo sugli sviluppatori.

La mia opinione personale è che i miglioramenti grafici che abbiamo visto negli ultimi anni non giustificano mai l'enormità di problemi che hanno comportato.

E lo stutter che ha l UE5? Sempre colpa degli sviluppatori... vero? Imbarazzante non assumersi la colpa su nulla.

rintintin78
29-08-2025, 15:17
Non so se sono l'utente a cui ti riferivi comunque ho rifatto i test ed effettivamente mi scuso ma stavo sbagliando.

Per impostare il cap al frame quando attivi la FG/MFG devi attivare il Vsync da pannello di controllo nVidia.

A mia discolpa posso dire che quell'impostazione, una volta provata nell'unico gioco che mi permetta di simulare un caso in cui attivando la framegen vado sopra il ref rate del monitor, ovvero Diablo4, dava risultata pessimi.

In diablo4 per ridurre lo stuttering ho dovuto settare il cap degli FPS tramite rivatuner (sempre mantenendo il Vsync disattivo) e quindi per me il cap era sempre a 158 (quello che avrebbe impostato reflex + Vsync) attivando o disattivando il vsync.
Si mi riferito a te, ma non era un accusa, anzi scusami se ti è sembrato che fosse così, ma era solo per spiegare il concetto e confrontarci tutti su come utilizzare al meglio le nuove tecnologie

dAbOTZ
29-08-2025, 15:33
Stando a quanto dice il CEO di Epic Games, Tim Sweeney, i problemi con l'Unreal Engine sono dovuti al fatto che gli sviluppatori programmano per l'hardware di fascia top e lasciano l'ottimizzazione nelle fasi finali. A suo dire dovrebbero progettare sin dal principio per hardware di fascia più bassa completando questo step prima di aver completato i contenuti di gioco.

Sweeney ha riconosciuto che DLSS e FSR oggi vengono usate più per mascherare i problemi di performance anziché essere un aiuto ulteriore. In pratica scarica la palla solo sugli sviluppatori.

La mia opinione personale è che i miglioramenti grafici che abbiamo visto negli ultimi anni non giustificano mai l'enormità di problemi che hanno comportato.

Sarebbe stato molto più onesto a dire le cose come stanno, ovvero che gli sviluppatori non ottimizzano correttamente E l'engine ha problemi di framepacing. Tant'è che a parità di progetto c'è una sensibile riduzione dello stuttering passando da 5.3 a 5.6, ma questo si è ben guardato dal dirlo. La verità sta nel mezzo.

dAbOTZ
29-08-2025, 15:39
Nuovo driver ufficiale: 581.15

Installati ieri e testata una decina di giochi, personalmente nulla da segnalare.

Sealea
29-08-2025, 15:42
io negli ultimi bo.. 5 anni? l'unico gioco che non mi ha mai strutterato male su Unreal è stato Lies of P che è leggerissimo.
tutti gli altri lo hanno sempre fatto. TUTTI (e ormai la maggior parte dei giochi girano li praticamente).
ultimo che ho giocato è SH2 che piantava delle inchiodate galattiche di anche 2/3 decimi

con un impatto visivo notevole, ma la grafica in se era tutt'altro che eccezionale

Cutter90
29-08-2025, 15:45
io negli ultimi bo.. 5 anni? l'unico gioco che non mi ha mai strutterato male su Unreal è stato Lies of P che è leggerissimo.
tutti gli altri lo hanno sempre fatto. TUTTI (e ormai la maggior parte dei giochi girano li praticamente).
ultimo che ho giocato è SH2 che piantava delle inchiodate galattiche di anche 2/3 decimi

In realtà io ho giocato anche ad un free to play che si chiama "the first Descendent". Gira in Ue5 e nonostante sia un gioco del "chissenefrega" non so come hanno fatto, ma ha quasi zero stutter. E' davvero l'unico gioco che sembra "normale". Se non ricordo male Digital Foundry disse che durante i caricamenti fanno giarer el animazioni in backgroud in modo da "smarcarle" per la prima volta. Ricordo che lo stutter di UE è dato dalle "nuove" cose per la prima volta.

Fatto sta che il motore non è buono e gli sviluppatori se ne fregano, sotto questo aspetto.

fabryx73
30-08-2025, 07:52
ragazzi.....
piccolo problema.....
la ventola centrale della mia zotac 5080 ogni tanto negli ultimi 2 giorni ha iniziato a rumoreggiare.....stranamente lo fà a giri medi....bassi no,e neanche alti ,alzando la velocità della ventola (provato con afterburner)...
niente di trascindentale ma.....
per ora attivare garanzia non ne ho la minima voglia...
anche perchè per ora me lo ha fatto solo con robocop unfinished busines,che è ottimizzato malissimo.....crash random(a tutti non solo a me...), utilizzo gpu sempre sparato, utilizzo cpu di colpo al 100....ne parlano su molti forum,ha problemi grossi quel gioco...anyway mi manca un'oretta a finirlo ,poi cestino :D .

secondo voi soluzioni? smontare fan a sparare dentro un pochino di wd40(che non è conducente), oppure si può cambiare facilmente?

dAbOTZ
30-08-2025, 13:51
stranamente lo fà a giri medi....bassi no,e neanche alti

O è perché a medi è dove entra in risonanza, o perché ad alti il rumore è coperto dal flusso d'aria e non lo senti. Verifica bene di non avere una pala scheggiata, anche in maniera minima. Guarda se c'è polvere o corpi estranei. Ultima ratio, smontare e lubrificare, ma non usare il WD40, lascia residui e impasta, meglio l'olio per le macchine da cucire.

fabryx73
30-08-2025, 15:17
O è perché a medi è dove entra in risonanza, o perché ad alti il rumore è coperto dal flusso d'aria e non lo senti. Verifica bene di non avere una pala scheggiata, anche in maniera minima. Guarda se c'è polvere o corpi estranei. Ultima ratio, smontare e lubrificare, ma non usare il WD40, lascia residui e impasta, meglio l'olio per le macchine da cucire.

ok. fortunatamente la copertura in plastica ed il dissipatore hanno una rientranza proprio alla metà della seconda ventola....e riesco a inserire olio o wd40 o altro proprio con la ventola al contrario senza smontare,comodissimo...

devo guardare bene se pala scheggiata.....non credo.
flusso alto ,ho guardato da vicino e non lo fà.
guardando bene a livello...si vedono le 2 laterali che girano perfettamente, mentre la centrale appena appena storta(in maniera elicoidale).... prima mai fatto...
case pulitissimo....con microfiltri che non fanno passare polvere.....

dAbOTZ
30-08-2025, 15:28
la centrale appena appena storta(in maniera elicoidale)

Hai trovato il problema, è fuori asse. O hai l'asse piegato o i cuscinetti han preso gioco. Ma capita anche se una delle pale è leggermente scheggiata, guarda bene, ma andrebbe smontata per assicurarsene, è lo stesso effetto della ruota di un'auto fuori equilibratura. Lubrificare può allungarle la vita ma continuerà a vibrare in quel range di giri e peggiorerà col tempo. O la sostituisci autonomamente o in garanzia, non vedo altre soluzioni.

fabryx73
30-08-2025, 16:28
Hai trovato il problema, è fuori asse. O hai l'asse piegato o i cuscinetti han preso gioco. Ma capita anche se una delle pale è leggermente scheggiata, guarda bene, ma andrebbe smontata per assicurarsene, è lo stesso effetto della ruota di un'auto fuori equilibratura. Lubrificare può allungarle la vita ma continuerà a vibrare in quel range di giri e peggiorerà col tempo. O la sostituisci autonomamente o in garanzia, non vedo altre soluzioni.

Il problema è che in garanzia ti fanno mandare tutta la scheda,giusto? Anche se preso in negozio rivenditore ufficiale zotac?
Che palle... Ma sostituire,son ventole custom queste su gpu oppure si trovano facilmente universali?


Ps.
Controllerò anche se scheggiata,la centrale è proprio in un punto facile da controllare senza smontare,si riesce a vedere anche nel lato "chiuso"

Kostanz77
30-08-2025, 16:41
Il problema è che in garanzia ti fanno mandare tutta la scheda,giusto? Anche se preso in negozio rivenditore ufficiale zotac?
Che palle... Ma sostituire,son ventole custom queste su gpu oppure si trovano facilmente universali?


Ps.
Controllerò anche se scheggiata,la centrale è proprio in un punto facile da controllare senza smontare,si riesce a vedere anche nel lato "chiuso"


Mandala in RMA, non metterti a smontarla


Inviato dal mio iPhone utilizzando Tapatalk Pro

dAbOTZ
30-08-2025, 16:47
Il problema è che in garanzia ti fanno mandare tutta la scheda,giusto? Anche se preso in negozio rivenditore ufficiale zotac?
Che palle... Ma sostituire,son ventole custom queste su gpu oppure si trovano facilmente universali?


Ps.
Controllerò anche se scheggiata,la centrale è proprio in un punto facile da controllare senza smontare,si riesce a vedere anche nel lato "chiuso"

Sì, devi mandare tutta la scheda, la dai al rivenditore e loro la mandano in RMA a Zotac.

Le ventole gpu son quasi tutte custom, ma i ricambi si trovano (https://www.gpufanreplacement.com/products/zotac-gaming-geforce-rtx-5080-solid-gpu-fan-replacement?variant=46085610144002). Se la smonti leggi il codice dietro, assicurati sia quella giusta.

Scegli tu come muoverti..

Dono89
30-08-2025, 16:47
Se trovi la ventola su eBay e simili con 10euro "rischi" di sistemare tutto ed eviti rogne con la garanzia

fabryx73
30-08-2025, 17:20
Se trovi la ventola su eBay e simili con 10euro "rischi" di sistemare tutto ed eviti rogne con la garanzia

Vero....anche perché a "perdere" la scheda un mesetto o quasi non mi va....
Gli ho messo qualche goccia di olio per macchina da cucire(si riesce ad entrare nel pertugio molto facilmente per fortuna) e sembra migliorato di molto.... Proverò un po'....
Su gpu fan replacement costano un botto...poi da usa... immagino le spese e i tempi....

dAbOTZ
30-08-2025, 18:01
In realtà verso Italia spediscono dalla Cina. Ci avevo preso la destra di una R9, arrivata in un paio di settimane ma non ricordo quanto ci avevo aggiunto di spedizione.. mi pare comunque sui 20€ in tutto. Guarda come va nelle prossime settimane.. da quanto tempo ce l'hai?

Saved_ita
30-08-2025, 18:48
Si mi riferito a te, ma non era un accusa, anzi scusami se ti è sembrato che fosse così, ma era solo per spiegare il concetto e confrontarci tutti su come utilizzare al meglio le nuove tecnologie

Mai avuto quell'impressione, anzi mi sembrava doveroso scusarmi e fartelo sapere.

fabryx73
30-08-2025, 20:10
In realtà verso Italia spediscono dalla Cina. Ci avevo preso la destra di una R9, arrivata in un paio di settimane ma non ricordo quanto ci avevo aggiunto di spedizione.. mi pare comunque sui 20€ in tutto. Guarda come va nelle prossime settimane.. da quanto tempo ce l'hai?

5 mesi....mai successo prima.... effettivamente potrebbe essere cuscinetti fallati...

Il sito vuole 27 euro a ventola + spese .. non sono poche

dAbOTZ
30-08-2025, 21:30
Personalmente per una gpu così giovane sfrutterei la garanzia, non è normale che dia questi problemi dopo così poco tempo. A me le ventole han dato forfait dopo anni e anni. Non so come è fatta la tua, ma se per smontare dissipatore e cambiare ventola devi rompere i sigilli invalideresti la garanzia, da sfruttare in caso di futuri danni davvero seri. Ma io ho gpu muletto da rubacchiare da altri pc e non starei proprio senza, non so come sei messo.. valuta tu.

Anto_Dur
31-08-2025, 13:22
Personalmente per una gpu così giovane sfrutterei la garanzia, non è normale che dia questi problemi dopo così poco tempo. A me le ventole han dato forfait dopo anni e anni. Non so come è fatta la tua, ma se per smontare dissipatore e cambiare ventola devi rompere i sigilli invalideresti la garanzia, da sfruttare in caso di futuri danni davvero seri. Ma io ho gpu muletto da rubacchiare da altri pc e non starei proprio senza, non so come sei messo.. valuta tu.

Infatti secondo me meglio mandarla in garanzia che mettere le mani. Anche io ho piu pc

micronauta1981
01-09-2025, 07:01
Manda in garanzia e fai un mese di GeForce now

Dono89
03-09-2025, 09:25
Messo il metallo liquido sulla 5080....rullo di tamburi...guadagnati 3 gradi in game e 7 in bench con 450w di consumo.

La morale, non fatelo :D

micronauta1981
03-09-2025, 12:20
Sto giocando metal eden,non supporta penso per un bug la frame gen,ho provato ad attivare per l ennesima volta smooth motion,senza successo..non è la prima volta anche su Helldivers e qualche altro titolo che ora mi sfugge non mi funzionava..sbaglio qualcosa io,o anche voi avete problemi ad usarla?

Cutter90
03-09-2025, 12:33
Sto giocando metal eden,non supporta penso per un bug la frame gen,ho provato ad attivare per l ennesima volta smooth motion,senza successo..non è la prima volta anche su Helldivers e qualche altro titolo che ora mi sfugge non mi funzionava..sbaglio qualcosa io,o anche voi avete problemi ad usarla?

Io la sto usando con Metal Gear e funziona senza problemi. Ma su altri giochi non so

PS: ma metl eden fa 90 fps con una 5080.... cosa te ne fai del Frame gen con la 5090? In uno sparatutto per giunta, dove l'input lag che aggiunge sarà ben visibile

fabryx73
03-09-2025, 14:02
Personalmente per una gpu così giovane sfrutterei la garanzia, non è normale che dia questi problemi dopo così poco tempo. A me le ventole han dato forfait dopo anni e anni. Non so come è fatta la tua, ma se per smontare dissipatore e cambiare ventola devi rompere i sigilli invalideresti la garanzia, da sfruttare in caso di futuri danni davvero seri. Ma io ho gpu muletto da rubacchiare da altri pc e non starei proprio senza, non so come sei messo.. valuta tu.

Allora ti aggiorno.
Le zotac il sigillo lo hanno sul dissipatore in metallo, quindi non rompi niente. Non mi sono ancora informato bene ,ma portarla in garanzia secondo me è più di un mese.... Next, distributore ufficiale zotac ma ,porti a loro,loro portano in un centro per controllare,se loro ok , spediscono a zotac(spero ci sia un centro riparazione eu...) quindi minimo un mese... sperando che tutto va bene...

Comunque,per ora, giusto per testare, ho fatto prove con afterburner e ventola manuale: giri bassi non lo fa , giri medi (intorno al 50%) si ,se supera il 60% (fino al 100% ) non lo fa più...ho testato con case aperto quindi sentivo bene .... Per ora tengo profilo afterburner fino al 45% di ventola, poi step successivo dal 55% in su...e evito il sibilo ventola (colpa cuscinetti sicuro)

Boh.... Non so che fare....

Ps. A me il frame generation da problemi in mafia terra madre... Tante volte non si attiva, devo uscire dal gioco(a desktop) e ricaricare....boh

dAbOTZ
03-09-2025, 14:15
Se i sigilli rimangono integri il discorso cambia, una sostituzione in autonomia ti porta via poco tempo, non costa chissà che, non rimani senza scheda e non invalidi la garanzia. Ma resta il fatto che la scheda è troppo giovane per avere problemi di questo tipo, SE ti puoi permettere di rimanere senza per un po' montando un muletto, io sfrutterei la garanzia..

ferro10
03-09-2025, 14:34
Allora ti aggiorno.
Le zotac il sigillo lo hanno sul dissipatore in metallo, quindi non rompi niente. Non mi sono ancora informato bene ,ma portarla in garanzia secondo me è più di un mese.... Next, distributore ufficiale zotac ma ,porti a loro,loro portano in un centro per controllare,se loro ok , spediscono a zotac(spero ci sia un centro riparazione eu...) quindi minimo un mese... sperando che tutto va bene...

Comunque,per ora, giusto per testare, ho fatto prove con afterburner e ventola manuale: giri bassi non lo fa , giri medi (intorno al 50%) si ,se supera il 60% (fino al 100% ) non lo fa più...ho testato con case aperto quindi sentivo bene .... Per ora tengo profilo afterburner fino al 45% di ventola, poi step successivo dal 55% in su...e evito il sibilo ventola (colpa cuscinetti sicuro)

Boh.... Non so che fare....

Ps. A me il frame generation da problemi in mafia terra madre... Tante volte non si attiva, devo uscire dal gioco(a desktop) e ricaricare....boh


Anche io monterei il muletto, e quella la mandi in garanzia.

Se la invii in tempi brevi, è molto probabile che ti torni prima del lancio di Battlefield 6 :D

PS: Documenta bene la situazione con un video per evitare contestazioni. In ogni caso, Zotac di solito ha un'ottima assistenza. Anche io ho avuto un problema con una ventola della mia GTX 970 e in circa tre settimane mi hanno sostituito l'intera GPU con un modello superiore.

fabryx73
03-09-2025, 16:06
Anche io monterei il muletto, e quella la mandi in garanzia.....

L'unico muletto che potrei montare, è usare l'integrata del 9800x/3d....

micronauta1981
03-09-2025, 16:45
Io la sto usando con Metal Gear e funziona senza problemi. Ma su altri giochi non so

PS: ma metl eden fa 90 fps con una 5080.... cosa te ne fai del Frame gen con la 5090? In uno sparatutto per giunta, dove l'input lag che aggiunge sarà ben visibile

Hanno ragione quando ti insultano però..ahahah
Se ti chiedo una cosa perché rispondi con un altra??
Il dlss è buggato,fa più FPS senza che con, però pulisce l' aliasing,quindi lo tengo acceso,in 5k dlss qualità (buggato) faccio 90/100 FPS,ne voglio 165 perché il gioco è iper veloce l' input lag che genera è trascurabile,invece il doppio degli FPS quasi fanno comodo...ho la demo installata con dlss sano e framegen abilitabile e si gioca molto meglio..vabene la spiegazione???

ferro10
03-09-2025, 16:48
L'unico muletto che potrei montare, è usare l'integrata del 9800x/3d....

vedi te sicuramente è più potente del mio muletto gtx295 :D

dAbOTZ
03-09-2025, 16:57
L'unico muletto che potrei montare, è usare l'integrata del 9800x/3d....

Un mesetto a dedicarsi a retrogaming e avventure point&click non è poi da buttar via :stordita:

Cutter90
03-09-2025, 18:17
Hanno ragione quando ti insultano però..ahahah
Se ti chiedo una cosa perché rispondi con un altra??
Il dlss è buggato,fa più FPS senza che con, però pulisce l' aliasing,quindi lo tengo acceso,in 5k dlss qualità (buggato) faccio 90/100 FPS,ne voglio 165 perché il gioco è iper veloce l' input lag che genera è trascurabile,invece il doppio degli FPS quasi fanno comodo...ho la demo installata con dlss sano e framegen abilitabile e si gioca molto meglio..vabene la spiegazione???

Beh volevo capire come lo giocassi per vedere come mai serviva. Diciamo che mandare in 5k un gioco con quella grafica per me è poco senso. Butti via tanti fps per nulla.

Sinceramente tra 100 e 165 fps con FG.. la differenza non è così netta lato fluidità. E qualche artefatto lato hud c'è sicuro (il motion fluid al 100%).Non so, secondo me vuoi usare un po tutto "per forza", quando basterebbe un dlss4 in Q in 4k per fare 120 fps comodi. Poi non so i bug del gioco con il dlss.
Poi oh giocalo come vuoi, ci mancherebbe :)
Del resto io ti ho risposto che il "movimento fluido" lo sto usando con successo su mgs. Quindi non è un problema della feature con i driver attuali ecco.

micronauta1981
03-09-2025, 20:51
Beh volevo capire come lo giocassi per vedere come mai serviva. Diciamo che mandare in 5k un gioco con quella grafica per me è poco senso. Butti via tanti fps per nulla.

Sinceramente tra 100 e 165 fps con FG.. la differenza non è così netta lato fluidità. E qualche artefatto lato hud c'è sicuro (il motion fluid al 100%).Non so, secondo me vuoi usare un po tutto "per forza", quando basterebbe un dlss4 in Q in 4k per fare 120 fps comodi. Poi non so i bug del gioco con il dlss.
Poi oh giocalo come vuoi, ci mancherebbe :)
Del resto io ti ho risposto che il "movimento fluido" lo sto usando con successo su mgs. Quindi non è un problema della feature con i driver attuali ecco.
La grafica è molto bella invece,ha senso eccome..non è mica un competitivo..
Fidati che se lo giochi capisci, è velocissimo continui panning di visuale e a 90 fps con gsinc la differenza rispetto a 165 si vede eccome,poi ti ripeto che ho la demo,e quella gira molto meglio che il gioco completo,perché il dlss è tutto buggato...per quello chiedevo dello smooth...ma c'è qualche cosa che mi sfugge?io uso,schermo intero, vsinc on, dldsr..qualcosa di queste opzioni magari dà noia?

fabryx73
03-09-2025, 20:54
La grafica è molto bella invece,ha senso eccome..non è mica un competitivo..
Fidati che se lo giochi capisci, è velocissimo continui panning di visuale e a 90 fps con gsinc la differenza rispetto a 165 si vede eccome,poi ti ripeto che ho la demo,e quella gira molto meglio che il gioco completo,perché il dlss è tutto buggato...per quello chiedevo dello smooth...ma c'è qualche cosa che mi sfugge?schermo intero vsinc on dldsr..qualcosa di queste opzioni magari dà noia?

Cioè scusami,nella demo dlss e framegen funzionano e nel gioco no? 🤣😂🤣