PDA

View Full Version : [Thread Ufficiale] nVidia AD102-AD103 (RTX 4090 - 4080/Super - 4070Ti Super)


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 [49] 50 51 52 53 54 55 56 57 58

Magistercris
22-02-2024, 06:46
3d mark completo costa qualche caffè

D'accordissimo... Su, è come avere la ferrari e girare tutta la provincia per cercare chi fa lo sconto di un centesimo sulla benzina.. Dai che anche i bench di 3dmark sono anche piacevoli sia per testare che per fare diverse prove, a me piacciono molto. Spennete sti soldini..
Con affetto :)

FvR 93
22-02-2024, 09:05
D'accordissimo... Su, è come avere la ferrari e girare tutta la provincia per cercare chi fa lo sconto di un centesimo sulla benzina.. Dai che anche i bench di 3dmark sono anche piacevoli sia per testare che per fare diverse prove, a me piacciono molto. Spennete sti soldini..
Con affetto :)

Infatti, inoltre hanno il log dei sensori e puoi vedere in ogni momento del test il comportamento di frequenze e temperature, puoi capire se la curva di frequenza si abbassa perchè la gpu sta scaldando troppo o uguale per il processore.

razor820
22-02-2024, 10:41
Qualcuno che ha provato Skull and bones sa se è normale avere dei cali di fps in mare aperto portando L utilizzo della gpu al 50% ?

Con altri giochi non ho questo problema, ho aggiornato pure agli ultimi driver della gpu. Ho anche controllato il file log di MSI ab che registra L uso di tutti i core della cpu e non h o trovato collo di bottiglia in nessuno dei 12 più i thread, anzi sto gioco a differenza degli altri titoli Ubisoft la cpu la usa poco e niente.

Potrebbe essere il gioco stesso o qualcos altro?

FvR 93
22-02-2024, 12:57
Qualcuno che ha provato Skull and bones sa se è normale avere dei cali di fps in mare aperto portando L utilizzo della gpu al 50% ?

Con altri giochi non ho questo problema, ho aggiornato pure agli ultimi driver della gpu. Ho anche controllato il file log di MSI ab che registra L uso di tutti i core della cpu e non h o trovato collo di bottiglia in nessuno dei 12 più i thread, anzi sto gioco a differenza degli altri titoli Ubisoft la cpu la usa poco e niente.

Potrebbe essere il gioco stesso o qualcos altro?

Credo che la risposta sia scontata :D

Yellow13
22-02-2024, 13:29
D'accordissimo... Su, è come avere la ferrari e girare tutta la provincia per cercare chi fa lo sconto di un centesimo sulla benzina.. Dai che anche i bench di 3dmark sono anche piacevoli sia per testare che per fare diverse prove, a me piacciono molto. Spennete sti soldini..
Con affetto :)

Io li userei una volta in tutto per testare la stabilità, per il resto non me ne importa niente di benchmark e quant'altro. Non è questione di soldi, ma in ogni caso il 3dmark completo mi viene 33€, diciamo che più che qualche caffè costa quanto la scorta di capsule di un mese

parcher
22-02-2024, 13:37
ma in ogni caso il 3dmark completo mi viene 33€, diciamo che più che qualche caffè costa quanto la scorta di capsule di un mese

QUI (https://www.google.com/search?q=3dmark+key&rlz=1C1CHBF_itIT1097IT1097&oq=3DMARK+&gs_lcrp=EgZjaHJvbWUqBwgGEAAYgAQyBggAEEUYOTIHCAEQABiABDIHCAIQABiABDIHCAMQABiABDIHCAQQABiABDIHCAUQABiABDIHCAYQABiABDIHCAcQABiABDIHCAgQABiABDIHCAkQABiABNIBCjEzOTY4ajBqMTWoAgCwAgA&sourceid=chrome&ie=UTF-8) :read:

Cutter90
22-02-2024, 14:13
Io li userei una volta in tutto per testare la stabilità, per il resto non me ne importa niente di benchmark e quant'altro. Non è questione di soldi, ma in ogni caso il 3dmark completo mi viene 33€, diciamo che più che qualche caffè costa quanto la scorta di capsule di un mese

https://www.cdkeys.com/3dmark-pc-steam?intsrc=CATF_12138&utm_source=impact&utm_medium=affiliate&utm_campaign=allkeyshop&irgwc=1

Però ragazzo mio, fidati. Se ti dico che costa come qualche caffè è così.... conta che per 6 euro poi ce l'hai per sempre, quindi anche se cambi cpu/gpu te lo ritrovi.

razor820
22-02-2024, 14:18
Credo che la risposta sia scontata :D


Eh per me non credo sia scontata. Per questo ho chiesto

Yellow13
22-02-2024, 14:23
https://www.cdkeys.com/3dmark-pc-steam?intsrc=CATF_12138&utm_source=impact&utm_medium=affiliate&utm_campaign=allkeyshop&irgwc=1

Però ragazzo mio, fidati. Se ti dico che costa come qualche caffè è così.... conta che per 6 euro poi ce l'hai per sempre, quindi anche se cambi cpu/gpu te lo ritrovi.

Non compro dai siti di key. Testerò in altro modo, grazie comunque

Cutter90
22-02-2024, 14:24
Non compro dai siti di key. Testerò in altro modo, grazie comunque

Ma che....... guarda che è legale eh, ma ok :mbe:

Yellow13
22-02-2024, 14:31
Ma che....... guarda che è legale eh, ma ok :mbe:

Non ho dubbi, anche se si potrebbe aprire un confronto su legale e lecito

FvR 93
22-02-2024, 14:38
Eh per me non credo sia scontata. Per questo ho chiesto

La risposta è scontata per il fatto che è Ubisoft ed è appena uscito. E' semplicemente fatto da cani come al solito, tra un anno forse lo fixano per bene.

Ma che....... guarda che è legale eh, ma ok :mbe:

Dio benedica quei siti :ahahah:

Cutter90
22-02-2024, 14:44
Non ho dubbi, anche se si potrebbe aprire un confronto su legale e lecito

E allora qual è il problema?

marbasso
22-02-2024, 15:41
Io li userei una volta in tutto per testare la stabilità, per il resto non me ne importa niente di benchmark e quant'altro. Non è questione di soldi, ma in ogni caso il 3dmark completo mi viene 33€, diciamo che più che qualche caffè costa quanto la scorta di capsule di un mese

E allora usa furmark rog edition o msi kombustor qualche trentina di minuti e sei ok.
Altrimenti gpupi3.3.3., oppure boundary bench gratis su steam.

Yellow13
22-02-2024, 16:00
Comunque col Timespy basico, i risultati che ottengo si discostano molto fra loro a secondo dei profili, ma mi chiedo se all'atto pratico (nei giochi) ci sia tutta questa differenza.

https://www.3dmark.com/compare/spy/45896944/spy/45896756/spy/45895760

Profili sono rispettivamente: undervolt 0.925v, overclock +200 1.1v, default

E allora usa furmark rog edition o msi kombustor qualche trentina di minuti e sei ok.
Altrimenti gpupi3.3.3., oppure boundary bench gratis su steam.

Grazie, leggevo su reddit che quei software non vanno per la maggiore (stressano anche troppo ma non sempre scovano instabilità)

amon.akira
22-02-2024, 16:45
Grazie, leggevo su reddit che quei software non vanno per la maggiore (stressano anche troppo ma non sempre scovano instabilità)

sarà sempre una stabilità sommaria, un punto di partenza...poi con i giochi affini

marbasso
22-02-2024, 17:08
Comunque col Timespy basico, i risultati che ottengo si discostano molto fra loro a secondo dei profili, ma mi chiedo se all'atto pratico (nei giochi) ci sia tutta questa differenza.

https://www.3dmark.com/compare/spy/45896944/spy/45896756/spy/45895760

Profili sono rispettivamente: undervolt 0.925v, overclock +200 1.1v, default



Grazie, leggevo su reddit che quei software non vanno per la maggiore (stressano anche troppo ma non sempre scovano instabilità)

E cacchio....usa lo scanner artifacts e ti fai un idea ai vari clock o tensioni. Cmq boundary tranquillo che se hai instabilità crasha istant.

eXeS
22-02-2024, 18:36
Comunque col Timespy basico, i risultati che ottengo si discostano molto fra loro a secondo dei profili, ma mi chiedo se all'atto pratico (nei giochi) ci sia tutta questa differenza.

https://www.3dmark.com/compare/spy/45896944/spy/45896756/spy/45895760

Profili sono rispettivamente: undervolt 0.925v, overclock +200 1.1v, default

Guarda la differenza in percentuale e non in valore assoluto, il migliore va meglio del peggiore dell'8% che proiettati su 100fps sono 8fps in più, ne vale la pena? Come sempre la risposta è soggettiva ;)

Edit
Avevo guardato lo score globale e non il graphics score dove la differenza è dell'11%, ma il concetto non cambia, devi guardare le differenze in percentuale

magic carpet
23-02-2024, 12:34
Nuovi driver 551.61 WHQL:
https://www.nvidia.it/download/driverResults.aspx/221836/it

emac700
23-02-2024, 13:54
Oggi finalmente è arrivata la mia 4080 Super... peccato che non ho con me i cavi dell'alimentatore :cry: :cry: :cry: dovrò aspettare domani per testarla.

Yellow13
23-02-2024, 14:21
Che voi sappiate la 4080s founder's monta il nuovo connettore 12V-2x6? Chiedo perché devo cambiare alimentatore

fraussantin
23-02-2024, 14:23
Che voi sappiate la 4080s founder's monta il nuovo connettore 12V-2x6? Chiedo perché devo cambiare alimentatoreTutte le 4080 hanno il 16 pin , ormai credo revisionato con i 4 pin più corti.

Danno il polpo insieme cmq ma è relativamente osceno

razor820
23-02-2024, 14:29
A proposito di oscenità.
Le diramazioni del polpo li ho legati con la fascetta

https://uploads.tapatalk-cdn.com/20240223/4fa051f85de9b552d09056a21c666a36.jpg

Cambiare alimentatore per ora non se ne parla.

-Chojin-
23-02-2024, 14:43
Oggi finalmente è arrivata la mia 4080 Super... peccato che non ho con me i cavi dell'alimentatore :cry: :cry: :cry: dovrò aspettare domani per testarla.

Quanti giorni ha impiegato la spedizione?

marbasso
23-02-2024, 14:55
Che voi sappiate la 4080s founder's monta il nuovo connettore 12V-2x6? Chiedo perché devo cambiare alimentatore

Guarda il connettore, ha una sigla:
se H+ è il vecchio
se H++ è il nuovo.

Cutter90
23-02-2024, 15:05
A proposito di oscenità.
Le diramazioni del polpo li ho legati con la fascetta

https://uploads.tapatalk-cdn.com/20240223/4fa051f85de9b552d09056a21c666a36.jpg

Cambiare alimentatore per ora non se ne parla.

Ahaha ma perchè la fascetta? :D Sono legati insieme i cavi con 1 fascetta?

Yellow13
23-02-2024, 15:13
Guarda il connettore, ha una sigla:
se H+ è il vecchio
se H++ è il nuovo.

Ho controllato, non c'è scritto nulla sul connettore :boh:

Yellow13
23-02-2024, 15:14
Quanti giorni ha impiegato la spedizione?

Per me due. Ordinata Lunedì pomeriggio, ricevuta Giovedì

Yellow13
23-02-2024, 15:17
Tutte le 4080 hanno il 16 pin , ormai credo revisionato con i 4 pin più corti.

Eh vorrei capire se c'è modo di riconoscere se si tratta del 12vhpwr o il nuovo 12v-2x6

marbasso
23-02-2024, 15:32
Ho controllato, non c'è scritto nulla sul connettore :boh:

https://www.techpowerup.com/img/FNd9i7DDy4ZwfW2I.jpg


Non so come altro aiutarti.

fraussantin
23-02-2024, 15:33
Eh vorrei capire se c'è modo di riconoscere se si tratta del 12vhpwr o il nuovo 12v-2x6Ma di fatto cosa cambia?
Tanto sulle 4080 non ci sono casi di fusione.

Consuma poco.

Yellow13
23-02-2024, 15:35
Non so come altro aiutarti.

Grazie! Purtroppo quella porzione del connettore non è visibile sulla FE

Ma di fatto cosa cambia?
Tanto sulle 4080 non ci sono casi di fusione.

Consuma poco.

Immagino nulla ma dovendo cambiare alimentatore puntavo sul nuovo connettore possibilmente

Cutter90
23-02-2024, 15:42
Grazie!



Immagino nulla ma dovendo cambiare alimentatore puntavo sul nuovo connettore possibilmente

Ti serve un alimenatore con atx 3.1 allora. Ma alla fine anche gli atx 3.0 sono compatibili con i nuovi connettori, quindi cambia zero. Sono perfettamente intercambiabili. Cambia solo come sono fatti, ma si connettono gli uni agli altri.
Infatti su amazon ci sono atx 3.0

fraussantin
23-02-2024, 15:43
Grazie! Purtroppo quella porzione del connettore non è visibile sulla FE



Immagino nulla ma dovendo cambiare alimentatore puntavo sul nuovo connettore possibilmenteL'unica differenza è che se non pigi bene i connettori non va o va lenta.

Yellow13
23-02-2024, 15:57
Ti serve un alimenatore con atx 3.1 allora. Ma alla fine anche gli atx 3.0 sono compatibili con i nuovi connettori, quindi cambia zero. Sono perfettamente intercambiabili. Cambia solo come sono fatti, ma si connettono gli uni agli altri.
Infatti su amazon ci sono atx 3.0

Lo so, cambia solo il discorso della protezione "0 Watt" se il connettore non è montato bene

L'unica differenza è che se non pigi bene i connettori non va o va lenta.

Esatto, ma vabbè uno se deve cambiare cerca l'ultimo upgrade, anche se di atx 3.1 non se ne vedono tanti in giro

razor820
23-02-2024, 16:00
Ahaha ma perchè la fascetta? :D Sono legati insieme i cavi con 1 fascetta?


Altrimenti le 3 diramazioni se ne andavano per conto suo, urtando con le ventole

Predator_1982
23-02-2024, 16:14
Nuovi driver 551.61 WHQL:
https://www.nvidia.it/download/driverResults.aspx/221836/it

avete provato il nuovo pannello di controllo Nvidia? :D

Yellow13
23-02-2024, 16:15
Altrimenti le 3 diramazioni se ne andavano per conto suo, urtando con le ventole

Tu riesci a verificare questa cosa sul connettore? H+ o H++

Salfox
23-02-2024, 18:37
avete provato il nuovo pannello di controllo Nvidia? :D

Se n'è parlato qualche post fa comunque l'ho provato e non l'avessi mai fatto, mi ha incasinato tutte le impostazioni dei giochi ma cosa più fastidiosa le opzioni per mettere il Vsync nei giochi sono diventate grigie e non selezionabili. Insomma ho disinstallato subito quella schifezza ma il problema del vsync mi è rimasto.

Domani provo a fare una reinstallazione pulita dei drivers che spero mi tolga tutte le impostazioni nascoste che mi ha imposto quella merdaccia.

fraussantin
23-02-2024, 18:49
Se n'è parlato qulache post fa comunque l'ho provato e non l'avessi mai fatto, mi ha incasinato tutte le impostazioni dei giochi ma cosa più fastidiosa le opzioni per mettere il Vsync nei giochi sono diventate grigie e non selezionabili. Insomma ho disinstallato subito quella schifezza ma il problema del vsync mi è rimasto.Ecco questo non l'ho controllato , speriamo di no cavolo

marbasso
23-02-2024, 19:37
Se n'è parlato qualche post fa comunque l'ho provato e non l'avessi mai fatto, mi ha incasinato tutte le impostazioni dei giochi ma cosa più fastidiosa le opzioni per mettere il Vsync nei giochi sono diventate grigie e non selezionabili. Insomma ho disinstallato subito quella schifezza ma il problema del vsync mi è rimasto.

Domani provo a fare una reinstallazione pulita dei drivers che spero mi tolga tutte le impostazioni nascoste che mi ha imposto quella merdaccia.

LOL, hai visto i driver nuovi?

Io non ho installato nulla son sempre con quelli di dicembre :D

Salfox
23-02-2024, 19:43
LOL, hai visto i driver nuovi?

Io non ho installato nulla son sempre con quelli di dicembre :D

Io, come già sai, installo sempre i drivers nuovi a prescindere ma questa volta ho fatto la caxxata di provare la nuova app di Nvidia che secondo me è un geforce experience ancora più invasivo.

rob-roy
23-02-2024, 20:12
Madò..meno male che non l'ho messo :doh:

eXeS
23-02-2024, 20:55
Se n'è parlato qualche post fa comunque l'ho provato e non l'avessi mai fatto, mi ha incasinato tutte le impostazioni dei giochi ma cosa più fastidiosa le opzioni per mettere il Vsync nei giochi sono diventate grigie e non selezionabili. Insomma ho disinstallato subito quella schifezza ma il problema del vsync mi è rimasto.

Chi lascia la strada vecchia per quella nuova, sa quello che lascia, ma non sa quello che trova ;)

Cutter90
23-02-2024, 21:15
Se n'è parlato qualche post fa comunque l'ho provato e non l'avessi mai fatto, mi ha incasinato tutte le impostazioni dei giochi ma cosa più fastidiosa le opzioni per mettere il Vsync nei giochi sono diventate grigie e non selezionabili. Insomma ho disinstallato subito quella schifezza ma il problema del vsync mi è rimasto.

Domani provo a fare una reinstallazione pulita dei drivers che spero mi tolga tutte le impostazioni nascoste che mi ha imposto quella merdaccia.

Curioso di provarlo. Salfox, non sei un gran smanettone, lo sappiamo, quindi la possibilità che in realtà sia semplicissimo da capire e configurare è molto alta :D
Quindi ragazzi niente panico e aspettate che qualcun altro lo provi....
Sarà l opzione "ottimizza automaticamente" come era su geforce experience. Anche quell opzione faceva uguale. Bastava spuntarla.

FvR 93
23-02-2024, 21:36
Curioso di provarlo. Salfox, non sei un gran smanettone, lo sappiamo, quindi la possibilità che in realtà sia semplicissimo da capire e configurare è molto alta :D
Quindi ragazzi niente panico e aspettate che qualcun altro lo provi....
Sarà l opzione "ottimizza automaticamente" come era su geforce experience. Anche quell opzione faceva uguale. Bastava spuntarla.

Ma infatti l'ho provato e funziona bene, immediato e customizzabile. Ha anche possibilità di limitare la raccolta dati per la privacy rispetto a GeForce Experience. Inoltre l'overlay è molto più customizzabile e versatile. I giochi sono accessibili in maniera chiara e le vare impostazioni di framerate sono facilmente impostabili senza perderci l'anima.
Ovviamente non usavo la loro ottimizzazione prima e continuerò a non usarla mai. È roba da tecnolesi.

Uno svecchiamento che ci voleva, per me che uso anche molto la registrazione è utile, arriverà anche la cattura in AV1 e a 120 fps.

amon.akira
24-02-2024, 01:26
Curioso di provarlo. Salfox, non sei un gran smanettone, lo sappiamo, quindi la possibilità che in realtà sia semplicissimo da capire e configurare è molto alta :D
Quindi ragazzi niente panico e aspettate che qualcun altro lo provi....
Sarà l opzione "ottimizza automaticamente" come era su geforce experience. Anche quell opzione faceva uguale. Bastava spuntarla.

infatti è quella, te lo chiede all inizio e ce l hai anche nell app on/off :asd:

djsnake
24-02-2024, 03:12
Mi accodo, installato e funziona bene. Ovviamente neanche io uso ne usavo l'auto ottimizzazione.
Finalmente hanno svecchiato il vecchio pannello (che comunque resta sempre accessibile per le opzioni non presenti nella nuova app).
L'overlay è migliorato

Salfox
24-02-2024, 04:06
infatti è quella, te lo chiede all inizio e ce l hai anche nell app on/off :asd:

Ragazzi, non sarò uno smanettone me non sono scemo :D :D :D infatti a quell'opzione ovviamente avevo tolto la spunta, fatto sta che le modifiche alle impostazioni me le ha fatte lo stesso :( :( :( :( :(

Cutter90
24-02-2024, 06:11
Ragazzi, non sarò uno smanettone me non sono scemo :D :D :D infatti a quell'opzione ovviamente avevo tolto la spunta, fatto sta che le modifiche alle impostazioni me le ha fatte lo stesso :( :( :( :( :(

Salfox salfox salfox. Dai su, brigantello :)

fraussantin
24-02-2024, 06:46
infatti è quella, te lo chiede all inizio e ce l hai anche nell app on/off :asd:Ah ecco perché non mi ero accorto del problema, infatti ho subito tolto quella roba.

Cmq per adesso lo lascio anche se lo userò come usavo il gfe , cioè per scaricare i driver nuovi.

Il resto delle opzioni mi paiono incomplete e scomode. Finchè il pannello c'è , uso quello .

Poi in futuro puo darsi che miglioreranno alcune cose.

sertopica
24-02-2024, 06:50
Curioso di provarlo. Salfox, non sei un gran smanettone, lo sappiamo, quindi la possibilità che in realtà sia semplicissimo da capire e configurare è molto alta :D
Quindi ragazzi niente panico e aspettate che qualcun altro lo provi....
Sarà l opzione "ottimizza automaticamente" come era su geforce experience. Anche quell opzione faceva uguale. Bastava spuntarla.

Il nuovo pannello non mi piace nel design onestamente, ma durante il setup ti viene chiesto se vuoi lasciargli gestire le impostazioni dei vari giochi che hai installato. Basta scegliere no e non si incasina niente. A volte basta leggere e non cliccare su next a vanvera. :D
Ragazzi, non sarò uno smanettone me non sono scemo :D :D :D infatti a quell'opzione ovviamente avevo tolto la spunta, fatto sta che le modifiche alle impostazioni me le ha fatte lo stesso :( :( :( :( :(
LOL

Salfox
24-02-2024, 08:36
Vi aggiorno sulla disavventura del'app Nvidia.
Ho fatto un'installazione pulita dei drivers e ho risolto il problema. Ora posso di nuovo selezionare tutte le impostazioni.
Torno a giocare a Banishers :D :D :D

beatl
24-02-2024, 09:29
Scusate il nuovo pannello in beta e’ installato in automatico con i dirver o c’è opzione di scelta?

Salfox
24-02-2024, 09:42
Scusate il nuovo pannello in beta e’ installato in automatico con i dirver o c’è opzione di scelta?

No, di base ti installa il vecchio pannello, per vedere il nuovo e non te lo consiglio :D , devi scaricare la nuova app Nvidia che è ancora in beta e che fa un miscuglio di nuovo pannello di controllo e geforce experience.

fraussantin
24-02-2024, 10:10
Scusate il nuovo pannello in beta e’ installato in automatico con i dirver o c’è opzione di scelta?Per ora no va cercato a mano , per il momento è abbadtanza inutile.

Cutter90
24-02-2024, 10:42
https://www.youtube.com/watch?v=68oI_tkJEoc

Piccola disamina di DF, su cui mi trovo d'accordo su da quantyi fps conviene usare il Frame Gen

nessuno29
24-02-2024, 14:37
https://www.youtube.com/watch?v=68oI_tkJEoc

Piccola disamina di DF, su cui mi trovo d'accordo su da quantyi fps conviene usare il Frame Gen

La frame gen è inutile, non ha senso giocare a 60 fps che diventano 120 con la fg ma che percepisco più come 60 fps che come 120, tanto vale giocare a 60 direttamente.

amon.akira
24-02-2024, 15:22
La latenza la senti meno rispetto alla fluidità d immagine che è effettivamente quella, paradossalmente potresti avere pari latenza tra un 120 senza accorgimenti (vsync) e un fg con reflex o cmq molto vicini, invece la fluidità visiva nn puoi farci nulla tra 60 e 120

fraussantin
24-02-2024, 15:28
La frame gen è inutile, non ha senso giocare a 60 fps che diventano 120 con la fg ma che percepisco più come 60 fps che come 120, tanto vale giocare a 60 direttamente.Secondo me manco lo avete provato.

FvR 93
24-02-2024, 15:29
La frame gen è inutile, non ha senso giocare a 60 fps che diventano 120 con la fg ma che percepisco più come 60 fps che come 120, tanto vale giocare a 60 direttamente.

Non è del tutto vero, è comunque migliorato molto e nel suo range ottimale di applicazione è davvero utile.

QUI (https://www.youtube.com/watch?v=AIrJk-BVXVs) trovi un confronto in Remnant 2 che ho fatto per valutare l'incremento di latenza comparando le timeband specifiche grazie alle API di NVIDIA Reflex. In questo scenario posso dirti che i lati negativi del FG non si notano durante il gameplay mentre è percettibile l'aumento di fluidità dell'immagine. Il frametime rimane stabilissimo e incrementano anche i percentili, fortunatamente senza stuttering che può esserci probabilmente in titoli poco ottimizzati o con FG attivato a <50fps.

Ancora più fondamentale risulta l'applicazione in The Witcher 3 (Full RT, Estrema+, DLSSQ) che passa da non giocabile a giocabilissimo con il FG.

amon.akira
24-02-2024, 15:38
Il modo migliore x testarlo è estremizzando, prova a pari impostazioni qualitative cyberpunk o alan wake2 con e senza e vedi se effettivamente ti sembra un placebo, esempio maxed 4k dlss q vs maxed 4k dlss q+fg e vedi se ti sembra uguale

razor820
24-02-2024, 15:43
Da neo possessore di 4080s ho provato da poco il FG con diversi giochi, anche se già in passato avevo sentito diversi commenti da amici.

Io sono dell idea che sicuramente lo trovò più utile del DLS come feature nvidia, solo che va attivato solamente in quei giochi dove necessiti di avere un boost di fps che ti permette di andare almeno a 90.
In altre situazioni non lo userei, anche perché la latenza si nota, anche se è poca, ma c è inutile negarlo.

Si sente proprio allo scorrere del mouse.
In molti casi è una manna dal cielo, prendi quel mattone di cb2077 passare da 50 fps ai quasi 100 è un Gioia per gli occhi.

Ma per molti giochi fps chi è abituato ai 120fps naturali, 120fps elaborati artificialmente la differenza si sente.

Certo poi è abbastanza personale, come ci sono persone che non avvertono la differenza tra 120 e 240hz e via dicendo.

È un ottima feature, ma va usata solo quando serve

fraussantin
24-02-2024, 15:57
Ormai si è già detto piu volte dipende da molte situazioni , sicuramente non va usato nei multi , poi bisogna essere certi che funzioni correttamente, che non ci sia vsync a creare casini , e dipende anche dalla persona che lo usa dal monitor ecc ( ricordo che ci son persone che non si accorgono la differenza dai 30 fps ai 60 e aggiungo beati loro )

Ma dire che non serve a niente è riduttivo.

Io se c'è ed è implementato bene lo uso quasi sempreco almeno lo uso se non arrivo almeno a 120 fps senza.

emac700
24-02-2024, 16:32
Quanti giorni ha impiegato la spedizione?
esattamente i giorni indicati. (non ricordo se erano 10) ma ho visto che ora si sono abbassati di molto

Cutter90
24-02-2024, 16:51
La frame gen è inutile, non ha senso giocare a 60 fps che diventano 120 con la fg ma che percepisco più come 60 fps che come 120, tanto vale giocare a 60 direttamente.

Non hai assolutamente la percezione di fare 60 fps con 120 grazie al FG. La fluidità dell immagine è da 120 fps puri e nativi. La latenza è migliore di 1/3 circa.

marbasso
24-02-2024, 18:19
Ormai si è già detto piu volte dipende da molte situazioni , sicuramente non va usato nei multi , poi bisogna essere certi che funzioni correttamente, che non ci sia vsync a creare casini , e dipende anche dalla persona che lo usa dal monitor ecc ( ricordo che ci son persone che non si accorgono la differenza dai 30 fps ai 60 e aggiungo beati loro )

Ma dire che non serve a niente è riduttivo.

Io se c'è ed è implementato bene lo uso quasi sempreco almeno lo uso se non arrivo almeno a 120 fps senza.

Va bè, cerco di capire chi non vede differenza tra i 60 e i 120, ma dai 30 ai 60 non vedere differenza è un qualcosa di patologico.

fraussantin
24-02-2024, 18:24
Va bè, cerco di capire chi non vede differenza tra i 60 e i 120, ma dai 30 ai 60 non vedere differenza è un qualcosa di patologico.Mi sono capitati amici con le console che se non glielo facevi notare non capivano. Poi fatta notare l'hanno vista.

Ovviamente anche fra 120 e 240 non la vedi finché non te la fanno notare( o vai tu a cercare di notarla) . Poi a meno di non avere problemi di vista si vede per forza.

Salfox
24-02-2024, 18:38
Va bè, cerco di capire chi non vede differenza tra i 60 e i 120, ma dai 30 ai 60 non vedere differenza è un qualcosa di patologico.

Confermo, sotto i 60 fps la sensazione di fluidità è nulla, sopra i 60 fps molti (me incluso) non notano differenze (sempre che ci sia il Vsync comunque).

terranux
24-02-2024, 19:00
Confermo, sotto i 60 fps la sensazione di fluidità è nulla, sopra i 60 fps molti (me incluso) non notano differenze (sempre che ci sia il Vsync comunque).

su aln wake 2 l'ho vista la differenza e tanta anche. con una 3080 da scattoso è diventato fluido. naturalmente và messa l'ultima mod

Rumpelstiltskin
24-02-2024, 19:05
Così su due piedi... vorrei prendere un gioco nuovo e sono indeciso tra :

- Helldivers 2
- Banishers

Cosa mi consigliate?

Salfox
24-02-2024, 19:14
Così su due piedi... vorrei prendere un gioco nuovo e sono indeciso tra :

- Helldivers 2
- Banishers

Cosa mi consigliate?

Hai preso due giochi che non hanno proprio nulla in comune :D :D :D :D . E' davvero difficile darti una risposta, così su due piedi ti direi se ti piacciono i multiplayer prendi helldivers, se ami (come me) i giochi single player con una storia coinvolgente prendi Banishers che io, come ho già detto più volte, considero uno dei giochi più belli che ho mai avuto.

Rumpelstiltskin
24-02-2024, 19:19
Hai preso due giochi che non hanno proprio nulla in comune :D :D :D :D . E' davvero difficile darti una risposta, così su due piedi ti direi se ti piacciono i multiplayer prendi helldivers, se ami (come me) i giochi single player con una storia coinvolgente prendi Banishers che io, come ho già detto più volte, considero uno dei giochi più belli che ho mai avuto.

Ti ringrazio, infatti a dir la verità ero molto orientato per Banishers però mi frena il fatto che non sia localizzato (il parlato) in italiano.

Detesto leggerre i sottotitoli : l'inglese lo mastico ma non riesco a concentrarmi se devo giocare ed ascoltare...

fraussantin
24-02-2024, 19:22
Confermo, sotto i 60 fps la sensazione di fluidità è nulla, sopra i 60 fps molti (me incluso) non notano differenze (sempre che ci sia il Vsync comunque).Il vsync che c'entra?

Cmq se ti faccio notare la differenza fra 60 90 120 160 la vedi anche tu .

Ma a sto punto non cercarla , vivi meglio :asd:

Xilema
24-02-2024, 19:27
Il framegen l'ho provato con Cyberpunk quando avevo la CPU vecchia e la VGA attuale: con tutto a palla (circa) e path tracing stavo sui 70-80 FPS (in base alla zona), una bella media ma ancora un filo troppo bassa per le mie esigenze.
Attivando il framegen sono schizzato a 120 e passa con 0 latenza (o almeno impercattibile per me).
E' una feature che, a certi framerate, può fare un sacco di differenza se ben implementata.

Salfox
24-02-2024, 19:34
Ti ringrazio, infatti a dir la verità ero molto orientato per Banishers però mi frena il fatto che non sia localizzato (il parlato) in italiano.

Detesto leggerre i sottotitoli : l'inglese lo mastico ma non riesco a concentrarmi se devo giocare ed ascoltare...

Caschi male purtroppo, ormai i giochi localizzati anche nel parlato si contano sulle dita di una mano mozzata :D :D :D .
Speriamo che con l'IA sempre più presente non diventi molto più facile ed economico localizzare i giochi in tutti gli aspetti.

Il vsync che c'entra?

Intendo dire che il tearing non lo sopporto e quindi io gioco a 60fps costanti ma con Vsync, così ho piena soddisfazione, ma io aborro i giochi sparatutto multiplayer e per questo comprendo quelli che li giocano e che quindi preferiscono i 120 fps.

fraussantin
24-02-2024, 19:44
Intendo dire che il tearing non lo sopporto e quindi io gioco a 60fps costanti ma con Vsync, così ho piena soddisfazione, ma io aborro i giochi sparatutto multiplayer e per questo comprendo quelli che li giocano e che quindi preferiscono i 120 fps.

Si cmq se mai dovessi comprare un monitor ad alto refrash sarà sicuramente con il vrr quindi il vsync non dovrai usarlo più .

terranux
24-02-2024, 19:58
Caschi male purtroppo, ormai i giochi localizzati anche nel parlato si contano sulle dita di una mano mozzata :D :D :D .
Speriamo che con l'IA sempre più presente non diventi molto più facile ed economico localizzare i giochi in tutti gli aspetti.



Intendo dire che il tearing non lo sopporto e quindi io gioco a 60fps costanti ma con Vsync, così ho piena soddisfazione, ma io aborro i giochi sparatutto multiplayer e per questo comprendo quelli che li giocano e che quindi preferiscono i 120 fps.

60 con la 4090?

FvR 93
24-02-2024, 21:17
Ma perchè usate il vsync nel 2024? Ora, il tearing lo odiamo tutti, però i monitor hanno il range di sincronizzazione variabile con Gsync o Freesync, quindi in ogni caso anche se il framerate droppa non te ne accorgi nemmeno nel range (esempio 48-165hz). In generale il vsync aggiunge latenza e cioè boh :mbe:

Cutter90
24-02-2024, 22:19
Ma perchè usate il vsync nel 2024? Ora, il tearing lo odiamo tutti, però i monitor hanno il range di sincronizzazione variabile con Gsync o Freesync, quindi in ogni caso anche se il framerate droppa non te ne accorgi nemmeno nel range (esempio 48-165hz). In generale il vsync aggiunge latenza e cioè boh :mbe:

Ma ragazzi sapete cosa fa il vsync vero? Se gli superano quelli del pannello si tearing. Quindi in quel caso il vsync serve eccome. Ci sono anche casi in cui il solo vrr provoca una frame time ballerino persino dentro il range del vrr e con il vsync si risolve.
Poi chiaro che in un gioco dove la latenza conta si tende a non usarlo. Ma in tanti altri casi funziona benissimo e risolve qualche problema

razor820
24-02-2024, 22:41
Mai usato il V-sync, odio L input lag e si perde anche qualcosa minima in prestazioni. Purtroppo Ci sono pannelli dove se non lo attivi già passati di 1fps rispetto alla frequenza supportata si ha un tearing assurdo, per non parlare delle tv la è vergognoso.
Fortunatamente con determinati monitor, almeno quelli che ho avuto dai 144hz a salire niente. Anche a 300fps, forse qualcosina minima impercettibile. Ma parlo di pannelli tuti con VRR di un certo livello.
Stessa cosa con i portatili. Ultimo alienware e msi ge non avevo tearing.

Invece con le tv sia quelle da 60hz che le più nuove da 120hz, non bastava limitare gli fps, il V sync andava sempre attivato.

Ecco perché dopo una breve parentesi con le tv, ho sempre preferito monitor con determinati moduli g-sync ultimate, freesync premium e via dicendo

Yellow13
25-02-2024, 00:21
Comunque da quello che so il v-sync va tenuto attivo da pannello nvidia in abbinamento col g-sync. Ma non ho mai capito se è solo per cappare gli fps massimi o serva anche ad altro, perché io uso rivatuner per questo

nessuno29
25-02-2024, 06:18
Non hai assolutamente la percezione di fare 60 fps con 120 grazie al FG. La fluidità dell immagine è da 120 fps puri e nativi. La latenza è migliore di 1/3 circa.

Ma i giochi li provate anche o vi accontentate solo del numerino? mouse alla mano i 120 fps con fg non sono paragonabili minimamente ai nativi, sono gommosi. Non so magari giocate spaparanzati sul divano col pad, o per mirare un nemico ci mettete 6 secondi ma non ditemi che il feedback mouse alla mano è lo stesso dai. Poi chiaro sulla sedia gaming col pad giocando ad alan wake lentissimo va bene.

fraussantin
25-02-2024, 07:56
Ma i giochi li provate anche o vi accontentate solo del numerino? mouse alla mano i 120 fps con fg non sono paragonabili minimamente ai nativi, sono gommosi. Non so magari giocate spaparanzati sul divano col pad, o per mirare un nemico ci mettete 6 secondi ma non ditemi che il feedback mouse alla mano è lo stesso dai. Poi chiaro sulla sedia gaming col pad giocando ad alan wake lentissimo va bene.Nessuno mette in dubbio che 120 nativi non siano uguali a 120 fg.

Ma tu parlavi di 120 fg contro 60.

In giochi come cyb , aw2 , lotf secondo me fg è necessario non solo utile.

Poi che mettendo dettagli al minimo e giocando senza fg e altro il mouse sia più reattivo nessuno lo mette in dubbio.

Dlaa ( dlss) rt , fg ecc sono per giochi NON competitivi. Mi pareva sottinteso.

Predator_1982
25-02-2024, 08:07
Comunque da quello che so il v-sync va tenuto attivo da pannello nvidia in abbinamento col g-sync. Ma non ho mai capito se è solo per cappare gli fps massimi o serva anche ad altro, perché io uso rivatuner per questo

Infatti. Per quanto mi riguarda il miglior settaggio è: Gsync ON + Vsync ON dal pannello Nvidia nelle impostazioni globali + vsync OFF nei giochi.

Per lo meno, tranne rari casi è per me il miglior compromesso.

fraussantin
25-02-2024, 08:15
Comunque da quello che so il v-sync va tenuto attivo da pannello nvidia in abbinamento col g-sync. Ma non ho mai capito se è solo per cappare gli fps massimi o serva anche ad altro, perché io uso rivatuner per questoSe usi rivatuner ( anche io) o il cap dal driver ,non serve attivare vsync da pannello.

A meno che non ti rendi conto che il gsync non funziona.

In quel caso abilitando vsync + gsync da driver di solito aggancia sempre.
Ma è solo un escamotage non credo proprio che operi il vsync attivato insieme al gsync anche perche senno avremmo stutter .


Poi nel mio caso cmq devo attivare un cap oltre il vsync perche il monitor a 160 mi sgancia e vedo tearing.

Quindi devo capparlo a 155

Cutter90
25-02-2024, 08:53
Ma i giochi li provate anche o vi accontentate solo del numerino? mouse alla mano i 120 fps con fg non sono paragonabili minimamente ai nativi, sono gommosi. Non so magari giocate spaparanzati sul divano col pad, o per mirare un nemico ci mettete 6 secondi ma non ditemi che il feedback mouse alla mano è lo stesso dai. Poi chiaro sulla sedia gaming col pad giocando ad alan wake lentissimo va bene.

E tu li leggi i messaggi? Già che mi dici "mouse alla mano per mirire i nemici" significa che stai parlando di un fps. Ma grazie mille che lì il fg non si usa. È risaputo.

Cutter90
25-02-2024, 08:56
Mai usato il V-sync, odio L input lag e si perde anche qualcosa minima in prestazioni. Purtroppo Ci sono pannelli dove se non lo attivi già passati di 1fps rispetto alla frequenza supportata si ha un tearing assurdo, per non parlare delle tv la è vergognoso.
Fortunatamente con determinati monitor, almeno quelli che ho avuto dai 144hz a salire niente. Anche a 300fps, forse qualcosina minima impercettibile. Ma parlo di pannelli tuti con VRR di un certo livello.
Stessa cosa con i portatili. Ultimo alienware e msi ge non avevo tearing.

Invece con le tv sia quelle da 60hz che le più nuove da 120hz, non bastava limitare gli fps, il V sync andava sempre attivato.

Ecco perché dopo una breve parentesi con le tv, ho sempre preferito monitor con determinati moduli g-sync ultimate, freesync premium e via dicendo

Che cmq al di la del taering non va bene. Se il tuo panello ha 160 hz e tu fai 250 fps tu non li vedi quei frame in più e anche se non hai tearing stai sprecando risorse per nulla.

Ad esempio con FG il vsync da pannello lo trovo fondamentalmente per non sforare i frame massimi visualizzabili.
Con fg il cap di fps di riva tuner ad esempio non funziona

androsdt
25-02-2024, 08:57
sull'amazzone spagnola c'era una 4080 super a 950 euro nuova... a quel prezzo poteva essere interessante

razor820
25-02-2024, 09:54
Che cmq al di la del taering non va bene. Se il tuo panello ha 160 hz e tu fai 250 fps tu non li vedi quei frame in più e anche se non hai tearing stai sprecando risorse per nulla.

Ad esempio con FG il vsync da pannello lo trovo fondamentalmente per non sforare i frame massimi visualizzabili.
Con fg il cap di fps di riva tuner ad esempio non funziona


Ma è stato spiegato migliaia di volte. È normale che se il mio pannello ha solo 160hz visivamente non vedrò mai i 240hz
Ma i tempi di reattività saranno molto più bassi e non avendo tearing non vedo perché utilizzare il frame cap da gioco o il V sync che sia

Discorso diverso se voglio avere una gpu più fresca e limitare il consumo, allora vado direttamente di fps limiter dal pannello nvidia e buonanotte.

fraussantin
25-02-2024, 09:58
Ma è stato spiegato migliaia di volte. È normale che se il mio pannello ha solo 160hz visivamente non vedrò mai i 240hz
Ma i tempi di reattività saranno molto più bassi e non avendo tearing non vedo perché utilizzare il frame cap da gioco o il V sync che sia

Discorso diverso se voglio avere una gpu più fresca e limitare il consumo, allora vado direttamente di fps limiter dal pannello nvidia e buonanotte.Una domanda , ma c'è un motivo se non vedi tearing?
Perche io se sfondo il il cap del monitor lo vedo e come

Cutter90
25-02-2024, 10:10
Ma è stato spiegato migliaia di volte. È normale che se il mio pannello ha solo 160hz visivamente non vedrò mai i 240hz
Ma i tempi di reattività saranno molto più bassi e non avendo tearing non vedo perché utilizzare il frame cap da gioco o il V sync che sia

Discorso diverso se voglio avere una gpu più fresca e limitare il consumo, allora vado direttamente di fps limiter dal pannello nvidia e buonanotte.

Sbagliato. HO fatto proprio un test a tal proposito grazie all'analizzatore di latenza nvidia e i tempi di risposta che tu faccia su 165 hz 165 fps o 240 fps sono gli stessi identici.
Anche perchè ragionaci un attimo, altrimenti avremmo tutti pannelli da 60 hz per poi farne 240 di fps ed avere la latenza da 240 fps. Non è così infatti, perchè se l' FPS a schermo non te lo carica perchè viene scartato, la latenza non si abbassa affatto.
Per avere una latenza da 240 fps devi avere gli hz del monitor che lo permettono. Altrimenti serve zero.

Cutter90
25-02-2024, 10:12
Una domanda , ma c'è un motivo se non vedi tearing?
Perche io se sfondo il il cap del monitor lo vedo e come

Ci sono alcuni monitor che di per se ti scartano senza mostrare spezzettamenti i frame "extra". Tipo il G8 qdoled di un mio amico.
Ma tanto come ho detto non c'è alcun vantaggio a sforare gli fps del monitor se non lo svantaggio di fare andare di più le componenti per niente.

FvR 93
25-02-2024, 10:25
Una domanda , ma c'è un motivo se non vedi tearing?
Perche io se sfondo il il cap del monitor lo vedo e come

Sarei curioso anche io, col monitor attuale anche 300 fps non mi causano tearing a gsync disattivato. Però tanti anni fa con un pannello 4k@60hz (che non usavo per giocare ma su cui ho fatto partire ogni tanto dei giochi) il tearing era atroce. Un altro monitor che soffriva poco di tearing, solo in alcuni casi era un Acer qhd 144hz TN. Attualmente mi ritengo soddisfatto ma anche io mi chiedo se dipenda solo dal pannello.

Per riagganciarmi al discorso FG ON/OFF, mi accodo all'idea per cui FG va attivato solo per giochi singleplayer e molto pesanti (come quelli citati da fraussantin a cui aggiungo The Witcher 3 RT) dato che migliora nettamente l'esperienza visiva a un "minimo" costo in latenza che nei suddetti giochi è tollerabile.
-Un FPS SP andrebbe giocato con 100+ fps nativi
-Un FPS competitivo va giocato con i settaggi tra il minimo e il medio quindi penso che tutti fanno 200+fps, poi libera scelta per chi vuole tenere il cap a -3 fps circa dal monitor o sfruttare tutta la potenza di rendering.

Ad esempio IN QUESTA CATTURA (https://ibb.co/Q8mD7fv) si può notare come renda l'esperienza nettamente migliore (i percentili FG ON sono più alti dell'average FG OFF) e anche se il tempo di rendering Driver quadruplica, nella coda di rendering si traduce "solo" in un 30-40% di aumento di Sim-To-Render-Latency proprio perchè le timeband sono sovrapposte e non solo additive.

Qui il video:
The Witcher 3 RayTracing + FG ON/OFF [NVIDIA Reflex Latency Test] - Custom Benchmark RTX4070/5800X3D (https://www.youtube.com/watch?v=j8LXrTZOGD4&list=PLOFYkJzUpWW14XjvxSvyY_455E8qv_xkt&index=9)

razor820
25-02-2024, 10:35
Una domanda , ma c'è un motivo se non vedi tearing?
Perche io se sfondo il il cap del monitor lo vedo e come

Che monitor stai usando?


Sbagliato. HO fatto proprio un test a tal proposito grazie all'analizzatore di latenza nvidia e i tempi di risposta che tu faccia su 165 hz 165 fps o 240 fps sono gli stessi identici.

Anche perchè ragionaci un attimo, altrimenti avremmo tutti pannelli da 60 hz per poi farne 240 di fps ed avere la latenza da 240 fps. Non è così infatti, perchè se l' FPS a schermo non te lo carica perchè viene scartato, la latenza non si abbassa affatto.

Per avere una latenza da 240 fps devi avere gli hz del monitor che lo permettono. Altrimenti serve zero.


Ma non è assolutamente vero. Non so quale test tu abbia fatto o che analizzatore usi. A parte che la reattività al doppio degli fps si nota col mouse appena lo muovi, secondo basta usare programmi basici come hwinfo o msi ab che ti da il valore

fraussantin
25-02-2024, 10:43
Che monitor stai usando?





Ma non è assolutamente vero. Non so quale test tu abbia fatto o che analizzatore usi. A parte che la reattività al doppio degli fps si nota col mouse appena lo muovi, secondo basta usare programmi basici come hwinfo o msi ab che ti da il valoreLg gn850 3440x1440 @160 hz


Sarei curioso anche io, col monitor attuale anche 300 fps non mi causano tearing a gsync disattivato. Però tanti anni fa con un pannello 4k@60hz (che non usavo per giocare ma su cui ho fatto partire ogni tanto dei giochi) il tearing era atroce. Un altro monitor che soffriva poco di tearing, solo in alcuni casi era un Acer qhd 144hz TN. Attualmente mi ritengo soddisfatto ma anche io mi chiedo se dipenda solo dal pannello.



Per riagganciarmi al discorso FG ON/OFF, mi accodo all'idea per cui FG va attivato solo per giochi singleplayer e molto pesanti (come quelli citati da fraussantin a cui aggiungo The Witcher 3 RT) dato che migliora nettamente l'esperienza visiva a un "minimo" costo in latenza che nei suddetti giochi è tollerabile.

-Un FPS SP andrebbe giocato con 100+ fps nativi

-Un FPS competitivo va giocato con i settaggi tra il minimo e il medio quindi penso che tutti fanno 200+fps, poi libera scelta per chi vuole tenere il cap a -3 fps circa dal monitor o sfruttare tutta la potenza di rendering.



Ad esempio IN QUESTA CATTURA (https://ibb.co/Q8mD7fv) si può notare come renda l'esperienza nettamente migliore (i percentili FG ON sono più alti dell'average FG OFF) e anche se il tempo di rendering Driver quadruplica, nella coda di rendering si traduce "solo" in un 30-40% di aumento di Sim-To-Render-Latency proprio perchè le timeband sono sovrapposte e non solo additive.



Qui il video:

The Witcher 3 RayTracing + FG ON/OFF [NVIDIA Reflex Latency Test] - Custom Benchmark RTX4070/5800X3D (https://www.youtube.com/watch?v=j8LXrTZOGD4&list=PLOFYkJzUpWW14XjvxSvyY_455E8qv_xkt&index=9)

Allora il tearing so che è meno visibile con l'aumentare degli hz.
In un 60 lo vedi proprio segato , un 144 o un 160 come il mio lo noti poco e vedi sfarfallare i tagli .
Ma si vede .

Immagino che serva appunto un 360 hz per non vederlo per niente

marbasso
25-02-2024, 10:55
Non sei l'unico... anche io bencho ogni release, anche gli hotfix nel caso... 😁

Ciao, hai testato gli ultimi driver?

razor820
25-02-2024, 11:12
Lg gn850 3440x1440 @160 hz




Allora il tearing so che è meno visibile con l'aumentare degli hz.
In un 60 lo vedi proprio segato , un 144 o un 160 come il mio lo noti poco ma vedi sfarfallare i tagli .
Ma si vede .

Immagino che serva appinto un 360 hz per non vederlo per niente

Con Lg gp950 superati i 165hz era minimo quasi impercettibile, con gli altri monitor in precedenza quasi mai.
Mi ricordo anni e anni fa con un semplice monitor da 60hz senza nessuna tecnologia li il tearing lo notavi sempre anche senza passare i 60fps, si doveva obbligatoriamente usare il v-sync.
Come detto precedentemente stessa cosa con la tv, con tv con il freesync base del tipo lg c2 se passavo i 120hz i ltearing si notava.

DA premettere che ne ho cambiato di monitor e non parlo a vanvera, ma purtroppo Alcuni utenti, non il tuo caso, ostentano a dire che bisogna sempre usare il v-sync o la latenza non si nota e via dicendo.

PEr cutter, ti ho appena fatto un video, per farti notare che sul mio g7 a 240hz, senza attivare il nulla, 1)la differenza input lag c'è anche se il pannello è solo di 240hz, tearing non c'è ne, e generalmente il tearing si avverte soprattutto se muovi il mouse a bassa velocità.

METTO SOTTO SPOILER:
https://youtu.be/nrohXkfoDgo?si=_n7oh1-aOIoYG201

Giusto per farti capire che non è perchè la pensi cosi deve essere per forza e per tutti in quella maniera.
Cmq non voglio parlare ne più di latenza ne di v sync. Questa discussione va avanti da mesi

fraussantin
25-02-2024, 11:17
Con Lg gp950 superati i 165hz era minimo quasi impercettibile, con gli altri monitor in precedenza quasi mai.

Mi ricordo anni e anni fa con un semplice monitor da 60hz senza nessuna tecnologia li il tearing lo notavi sempre anche senza passare i 60fps, si doveva obbligatoriamente usare il v-sync.

Come detto precedentemente stessa cosa con la tv, con tv con il freesync base del tipo lg c2 se passavo i 120hz i ltearing si notava.




Si va detto che non è pesante come un 60 , ma si vede.


Cmq il tearing è sempre " tarato " sul refrash del monitor.

O che faccia 30 fps o che ne faccia 300 , è sempre lo stesso ( ad una velocità di 160hz)

Cutter90
25-02-2024, 12:44
Con Lg gp950 superati i 165hz era minimo quasi impercettibile, con gli altri monitor in precedenza quasi mai.
Mi ricordo anni e anni fa con un semplice monitor da 60hz senza nessuna tecnologia li il tearing lo notavi sempre anche senza passare i 60fps, si doveva obbligatoriamente usare il v-sync.
Come detto precedentemente stessa cosa con la tv, con tv con il freesync base del tipo lg c2 se passavo i 120hz i ltearing si notava.

DA premettere che ne ho cambiato di monitor e non parlo a vanvera, ma purtroppo Alcuni utenti, non il tuo caso, ostentano a dire che bisogna sempre usare il v-sync o la latenza non si nota e via dicendo.

PEr cutter, ti ho appena fatto un video, per farti notare che sul mio g7 a 240hz, senza attivare il nulla, 1)la differenza input lag c'è anche se il pannello è solo di 240hz, tearing non c'è ne, e generalmente il tearing si avverte soprattutto se muovi il mouse a bassa velocità.

METTO SOTTO SPOILER:
https://youtu.be/nrohXkfoDgo?si=_n7oh1-aOIoYG201

Giusto per farti capire che non è perchè la pensi cosi deve essere per forza e per tutti in quella maniera.
Cmq non voglio parlare ne più di latenza ne di v sync. Questa discussione va avanti da mesi

Quello però è il frame time se non sbaglio. Io ho misurato con il misuratore complessivo fi latenza del sistema di Nvida, quello attivabile con GFE. Riusciresti a fare in test con quello?
Ho fatto un test sul monitor secondario che ho ed effettivamente anche la latenza di rendering cala tantissimo. Poi è anche un 75 hz, quindi farne 75 con vsync segna 28 ms, senza vsync a 240 segna 2. Che effettivamente è una differenza notevole.
Chiaro è però che il pc va mooolto più sotto stress e a meno di giocare ad un competitivo non ha molto senso lasciarlo a briglia sciolta così

Anche se giochi competitivo e fai 240 fps, farne 400 non ha il minomo senso visto il consumo enorme di risorse per guadagnare 2 ms (da 4 a 2 nel tuo video).
QUindi si, la latenza cala (magari dipende pure dal monitor?) , ma ha un senso a questo punto solo se ad esempio si vuole fare tanti fps su un monitor a bosso refresh se si gioca competitvo. Altrimenti no

amon.akira
25-02-2024, 14:27
Comunque da quello che so il v-sync va tenuto attivo da pannello nvidia in abbinamento col g-sync. Ma non ho mai capito se è solo per cappare gli fps massimi o serva anche ad altro, perché io uso rivatuner per questo

si esatto, serve per non avere tearing, inoltre se non si vuole incappare nella latenza aggiunta raggiunto il cap è consigliabile settare un cap frame poco al di sotto (cosa che fa il reflex)

https://i.ibb.co/brk0gHR/Immagine-2024-02-25-152426.png (https://ibb.co/brk0gHR)

razor820
25-02-2024, 14:37
Quello però è il frame time se non sbaglio. Io ho misurato con il misuratore complessivo fi latenza del sistema di Nvida, quello attivabile con GFE. Riusciresti a fare in test con quello?
Ho fatto un test sul monitor secondario che ho ed effettivamente anche la latenza di rendering cala tantissimo. Poi è anche un 75 hz, quindi farne 75 con vsync segna 28 ms, senza vsync a 240 segna 2. Che effettivamente è una differenza notevole.
Chiaro è però che il pc va mooolto più sotto stress e a meno di giocare ad un competitivo non ha molto senso lasciarlo a briglia sciolta così

Anche se giochi competitivo e fai 240 fps, farne 400 non ha il minomo senso visto il consumo enorme di risorse per guadagnare 2 ms (da 4 a 2 nel tuo video).
QUindi si, la latenza cala (magari dipende pure dal monitor?) , ma ha un senso a questo punto solo se ad esempio si vuole fare tanti fps su un monitor a bosso refresh se si gioca competitvo. Altrimenti no


Ma infatti già avevo accennato, e non solo io, che la latenza a livelli record conta solo se si fa fps competitivo in multi. Ma se si vuol far una partita con controller in un qualsiasi single player, già a 15 circa va bene. Se non erro a 120fps si sta sugli 8ms

Fare quel test li, dovrei trovare quel valore su hwinfo, sempre se c è, e poi aggiungerlo a rivatuner.
Puoi provare al limite direttamente anche tu se ti va

Cutter90
25-02-2024, 15:38
Ma infatti già avevo accennato, e non solo io, che la latenza a livelli record conta solo se si fa fps competitivo in multi. Ma se si vuol far una partita con controller in un qualsiasi single player, già a 15 circa va bene. Se non erro a 120fps si sta sugli 8ms

Fare quel test li, dovrei trovare quel valore su hwinfo, sempre se c è, e poi aggiungerlo a rivatuner.
Puoi provare al limite direttamente anche tu se ti va

Dai jn occhio che ho aggiornato il post sopra :)

TWT
25-02-2024, 18:37
Ciao, ho appena aggiornato i driver per 4080 alla versione 551.61. Non si avvia più Riva Tuner che ho già disinstallato e reinstallato, qualcuno che lo usa ha notato lo stesso problema? Non so se sia imputabile ai nuovi driver ma sembra una strana coincidenza...

Ripper89
25-02-2024, 19:16
Ho acquistato da poco una 4080 liscia della Gainward, versione Phoenix.
Qualcuno ha esperienza diretta con questo modello specifico ?
In giro ho trovato solo una review di Techpowerup ma non è che mi fidi molto. :)

Alekos Panagulis
25-02-2024, 19:23
Raga c'è qualcuno a Genova che abbia voglia di fare uno scambio temporaneo di GPU? Ho problemi di random reboot durante i giochi. Vorrei testare un'altra gpu sul mio sistema e vorrei che qualcuno testasse la mia sul suo. Se qualche anima pia mi vuole aiutare mi scriva in pvt. Grazie.

Inviato dal mio SM-S911B utilizzando Tapatalk

Sunjan88
25-02-2024, 21:25
si esatto, serve per non avere tearing, inoltre se non si vuole incappare nella latenza aggiunta raggiunto il cap è consigliabile settare un cap frame poco al di sotto (cosa che fa il reflex)

https://i.ibb.co/brk0gHR/Immagine-2024-02-25-152426.png (https://ibb.co/brk0gHR)
ciao scusa la domanda da noob ma io gioco a COD e ho letto nella schermata del v-sync(nei settaggi grafici di COD) che se attivo questa funzione aumenta l'input dei comandi...forse è per questo che il v-sync va settato direttamente nel pannello di controllo nvidia e non nei settaggi del gioco?per evitare questa cosa? oppure non centra niente e il v-sync aumenta l'input lag a prescindere? poi vorrei chiederti anche un'altra cosa sui settaggi degli fps se non ti dispiace
p.s. gioco su un LG C1 Oled da 120Hz

fraussantin
25-02-2024, 21:28
ciao scusa la domanda da noob ma io gioco a COD e ho letto nella schermata del v-sync(nei settaggi grafici di COD) che se attivo questa funzione aumenta l'input dei comandi...forse è per questo che il v-sync va settato direttamente nel pannello di controllo nvidia e non nei settaggi del gioco?per evitare questa cosa? oppure non centra niente e il v-sync aumenta l'input lag a prescindere? poi vorrei chiederti anche un'altra cosa sui settaggi degli fps se non ti dispiace
p.s. gioco su un LG C1 Oled da 120HzSe puoi metti il cap da driver nvidia 4,5 fps sotto il limite del monitor, e niente vsync.

È la soluzione piu facile per evitare problemi.

Poi nel caso se vedi tearing allora metti il vsync solo da pannello.

amon.akira
25-02-2024, 21:34
ciao scusa la domanda da noob ma io gioco a COD e ho letto nella schermata del v-sync(nei settaggi grafici di COD) che se attivo questa funzione aumenta l'input dei comandi...forse è per questo che il v-sync va settato direttamente nel pannello di controllo nvidia e non nei settaggi del gioco?per evitare questa cosa? oppure non centra niente e il v-sync aumenta l'input lag a prescindere? poi vorrei chiederti anche un'altra cosa sui settaggi degli fps se non ti dispiace

usa gsync e vsync dal pannello nvidia e disattivalo nei giochi, metti il cap fps nel pannello nvidia -2fps sotto il tuo refresh rate

Custode
25-02-2024, 21:34
Fino a una settimana fa giocavo a Cyberpunk 2077 con una 3070Ti a 1080p, tutto a palla e path tracing, i 40 fps li reggeva abbastanza bene, mi son detto, però, mica male!

Stamattina ho installato la 4080 Super della Zotac, ho azzardato i 1440p con path tracing, 55 e passa di media, ero mediamente soddisfatto.
Poi ho voluto provare il frame gen, ero molto dubbioso: oltre 100 fps, fluidità per me sbalorditiva, nessun artefatto, stuttering, latenza a me percepibile.

Come faccio a tornare indietro?!!? Dovessi giudicare il frame gen nVidia solo da Cyberpunk, direi l'avanzamento tecnico del decennio: poi è ovvio che ogni titolo faccia storia a sè e che in altri prodotti possa essere più problematico o meno riuscito.
Ma un punto centrale rimane: se ben implementato, cambia l'esperienza dal giorno alla notte.

FvR 93
25-02-2024, 21:55
Raga c'è qualcuno a Genova che abbia voglia di fare uno scambio temporaneo di GPU? Ho problemi di random reboot durante i giochi. Vorrei testare un'altra gpu sul mio sistema e vorrei che qualcuno testasse la mia sul suo. Se qualche anima pia mi vuole aiutare mi scriva in pvt. Grazie.

Inviato dal mio SM-S911B utilizzando Tapatalk

Ti aiuterei ma purtroppo sono molto distante. Assicurati che l'alimentatore non abbia la ventola guasta, è uno scenario compatibile con un surriscaldamento della psu il riavvio random del sistema, specialmente nei giochi in cui la richiesta di potenza è più elevata. Mi successe su un RM650, sempre Corsair, appena montai una ventola aftermarket legata alla mobo col 4 pin ho tenuto altri 4 anni quella psu senza nessun tipo di problema.

magic carpet
26-02-2024, 06:52
Io ho sempre saputo che gsync e vsync vanno attivati in coppia dal pannello nvidia e poi cappi a 118 il refresh da rivatuner (o nvcp) se ad esempio il tuo monitor è 120 Hz.

Cutter90
26-02-2024, 07:12
Io ho sempre saputo che gsync e vsync vanno attivati in coppia dal pannello nvidia e poi cappi a 118 il refresh da rivatuner (o nvcp) se ad esempio il tuo monitor è 120 Hz.

Infatti continua a fare così e non sbagli :)

Cutter90
26-02-2024, 07:13
Fino a una settimana fa giocavo a Cyberpunk 2077 con una 3070Ti a 1080p, tutto a palla e path tracing, i 40 fps li reggeva abbastanza bene, mi son detto, però, mica male!

Stamattina ho installato la 4080 Super della Zotac, ho azzardato i 1440p con path tracing, 55 e passa di media, ero mediamente soddisfatto.
Poi ho voluto provare il frame gen, ero molto dubbioso: oltre 100 fps, fluidità per me sbalorditiva, nessun artefatto, stuttering, latenza a me percepibile.

Come faccio a tornare indietro?!!? Dovessi giudicare il frame gen nVidia solo da Cyberpunk, direi l'avanzamento tecnico del decennio: poi è ovvio che ogni titolo faccia storia a sè e che in altri prodotti possa essere più problematico o meno riuscito.
Ma un punto centrale rimane: se ben implementato, cambia l'esperienza dal giorno alla notte.

E' così. Il FG Nvidia è tanta roba. Solo chi non lo può usare ne è scontento.....

Alekos Panagulis
26-02-2024, 08:28
Ti aiuterei ma purtroppo sono molto distante. Assicurati che l'alimentatore non abbia la ventola guasta, è uno scenario compatibile con un surriscaldamento della psu il riavvio random del sistema, specialmente nei giochi in cui la richiesta di potenza è più elevata. Mi successe su un RM650, sempre Corsair, appena montai una ventola aftermarket legata alla mobo col 4 pin ho tenuto altri 4 anni quella psu senza nessun tipo di problema.

Quello che succede è esattamente questo: durante il gioco (a volte dopo 10 secondi, a volte dopo 1 minuto, 10 minuti o mezz'ora) il pc freeza immagine e input per quale secondo e poi si riavvia; oppure, torna improvvisamente al desktop per qualche secondo (freezato) e poi si riavvia.
Mi viene da pensare che, se fosse l'alimentatore, non andrebbe in freeze per quei pochi secondi, ma si riavvierebbe di botto.
Cosa ne pensate?

magic carpet
26-02-2024, 08:39
Infatti continua a fare così e non sbagli :)Ovviamente disattivando il vsync dalle impostazioni del gioco 😉

Kostanz77
26-02-2024, 09:33
Quello che succede è esattamente questo: durante il gioco (a volte dopo 10 secondi, a volte dopo 1 minuto, 10 minuti o mezz'ora) il pc freeza immagine e input per quale secondo e poi si riavvia; oppure, torna improvvisamente al desktop per qualche secondo (freezato) e poi si riavvia.
Mi viene da pensare che, se fosse l'alimentatore, non andrebbe in freeze per quei pochi secondi, ma si riavvierebbe di botto.
Cosa ne pensate?


Non hai una mezza GPU scrausa di scorta da provare??


Inviato dal mio iPhone utilizzando Tapatalk Pro

Alekos Panagulis
26-02-2024, 09:36
No, non ce l'ho. Venerdì un collega dovrebbe prestarmi una 3090, e vedremo.

fraussantin
26-02-2024, 09:39
Quello che succede è esattamente questo: durante il gioco (a volte dopo 10 secondi, a volte dopo 1 minuto, 10 minuti o mezz'ora) il pc freeza immagine e input per quale secondo e poi si riavvia; oppure, torna improvvisamente al desktop per qualche secondo (freezato) e poi si riavvia.
Mi viene da pensare che, se fosse l'alimentatore, non andrebbe in freeze per quei pochi secondi, ma si riavvierebbe di botto.
Cosa ne pensate?

Ma sei un utente piu che esperto , come sai l'alimentatore guasto si riavvia o si spenge di colpo. Al limite controlla che i voltaggi siano a posto.

Quasi sicuramente il problema è la scheda video ma non si possono escludere problemi di driver o problemi di altro hw.

Tanto per ... Il connettore è a posto? Perche qui 9 su 10 quando ci sono problemi è quello che inizia a fondersi

Alekos Panagulis
26-02-2024, 09:44
Ma sei un utente piu che esperto , come sai l'alimentatore guasto si riavvia o si spenge di colpo. Al limite controlla che i voltaggi siano a posto.

Quasi sicuramente il problema è la scheda video ma non si possono escludere problemi di driver o problemi di altro hw.

Tanto per ... Il connettore è a posto? Perche qui 9 su 10 quando ci sono problemi è quello che inizia a fondersi

Si, certo, è quello che penso anche io. Volevo giusto una conferma.
Il connettore è ok.

fraussantin
26-02-2024, 09:48
Si, certo, è quello che penso anche io. Volevo giusto una conferma.

Il connettore è ok.Immagino tu abbia provato a togliere la scheda e fare test sul resto dei componenti con l' integrata.

FvR 93
26-02-2024, 09:49
Quello che succede è esattamente questo: durante il gioco (a volte dopo 10 secondi, a volte dopo 1 minuto, 10 minuti o mezz'ora) il pc freeza immagine e input per quale secondo e poi si riavvia; oppure, torna improvvisamente al desktop per qualche secondo (freezato) e poi si riavvia.
Mi viene da pensare che, se fosse l'alimentatore, non andrebbe in freeze per quei pochi secondi, ma si riavvierebbe di botto.
Cosa ne pensate?

Si potrebbe non essere la psu perché pensavo si riavviasse solamente. Nei momenti di Freeze, l'audio rimane in background? Una pulizia avanzata di disco, driver, cache (windows e nvidia) potresti provare ad operarla. Controlla se ci sono corruzioni. C'è overclock sulla cpu/ram? Controlla che windows update non abbia fatto scherzi e che qualche pacchetto aggiornamenti non sia fallato ( qualche mese fa l'aggiornamento KB5031354 fu riconosciuto causa di una serie di crash, a me compreso, specialmente sui giochi xbox app)

Alekos Panagulis
26-02-2024, 09:50
Immagino tu abbia provato a togliere la scheda e fare test sul resto dei componenti con l' integrata.

Si certo, è tutto stabile ma di certo testare il sistema con l'integrata non mette il PSU sotto sforzo, quindi non ho la sicurezza che sia la gpu.

Alekos Panagulis
26-02-2024, 09:50
Si potrebbe non essere la psu perché pensavo si riavviasse solamente. Nei momenti di Freeze, l'audio rimane in background? Una pulizia avanzata di disco, driver, cache (windows e nvidia) potresti provare ad operarla. Controlla se ci sono corruzioni. C'è overclock sulla cpu/ram? Controlla che windows update non abbia fatto scherzi e che qualche pacchetto aggiornamenti non sia fallato ( qualche mese fa l'aggiornamento KB5031354 fu riconosciuto causa di una serie di crash, a me compreso, specialmente sui giochi xbox app)

Si, rimane l'audio.
Ho eliminato qualsiasi oc, e anche disabilitato EXPO.

Thunder-74
26-02-2024, 10:48
Come fate ad escludere che sia la PSU perchè il reset non è immediato?
Se l'erogazione non è costante, ci possono essere degli spike in negativo che fanno impallare una delle componenti del PC (verosimilmente la VGA) e il freeze e poi il crash è conseguenza....

Questo per dire che non deve essere fritto del tutto l'ali, ma basta che non sia più efficiente e non stia dietro alla richiesta di tensione delle componenti, per avere un freeze/blocco/crash e reset.

Purtroppo solo con l'oscilloscopio professionale si riesce a leggere la fluttuazione di voltaggio date alle linee, ma intanto puoi aprire HWinfo settarlo sul refresh più basso in termini di ms e vedere se la linea dei 12v rimane nel ranger dei +/- 5% ...

Ora mi riallontano da questo forum felicemente..... Buona fortuna Alekos...

Black"SLI"jack
26-02-2024, 10:53
Concordo con Thunder. Sul pc di un amico, avevo riscontrato problemi di freeze e successivi riavvii del pc o spegnimento dello stesso. Primo indagato è stato proprio l'alimentatore. In idle era stabile il pc, ma appena in full load sia cpu e gpu, ecco i crash. Da notare che solo cpu un full tutto regolare. Come si provava con la GPU ecco i crash. Anche se da hwinfo sembrava che i voltaggi fossero corretti. Ma gli spike purtroppo non sono rilevabili tramite software e sono proprio quelli che portano a problemi di stabilità.

Cutter90
26-02-2024, 11:05
Proprio di recente anche un mio amico ha cambiato alimentatore, dopo che gli dava problemi di schermate nere e riavvii. Il motivo? Aveva acquistato un pc preassemblato e non capendone nulla non aveva ntato che l'ali era montato al contrario, con la ventola che aspirava da dentro, invece che da fuori. Tra l'altro era ventola in aspirazione montata vicino alle ventole, sempre in aspirazione, della 3080 che aveva su. In pratica creavano il vuoto negativo ahahahah

Alekos Panagulis
26-02-2024, 11:08
Come fate ad escludere che sia la PSU perchè il reset non è immediato?
Se l'erogazione non è costante, ci possono essere degli spike in negativo che fanno impallare una delle componenti del PC (verosimilmente la VGA) e il freeze e poi il crash è conseguenza....

Questo per dire che non deve essere fritto del tutto l'ali, ma basta che non sia più efficiente e non stia dietro alla richiesta di tensione delle componenti, per avere un freeze/blocco/crash e reset.

Purtroppo solo con l'oscilloscopio professionale si riesce a leggere la fluttuazione di voltaggio date alle linee, ma intanto puoi aprire HWinfo settarlo sul refresh più basso in termini di ms e vedere se la linea dei 12v rimane nel ranger dei +/- 5% ...

Ora mi riallontano da questo forum felicemente..... Buona fortuna Alekos...

Concordo con Thunder. Sul pc di un amico, avevo riscontrato problemi di freeze e successivi riavvii del pc o spegnimento dello stesso. Primo indagato è stato proprio l'alimentatore. In idle era stabile il pc, ma appena in full load sia cpu e gpu, ecco i crash. Da notare che solo cpu un full tutto regolare. Come si provava con la GPU ecco i crash. Anche se da hwinfo sembrava che i voltaggi fossero corretti. Ma gli spike purtroppo non sono rilevabili tramite software e sono proprio quelli che portano a problemi di stabilità.

Si potreste aver ragione. Proverò ad aprire un RMA con Corsair.

Proprio di recente anche un mio amico ha cambiato alimentatore, dopo che gli dava problemi di schermate nere e riavvii. Il motivo? Aveva acquistato un pc preassemblato e non capendone nulla non aveva ntato che l'ali era montato al contrario, con la ventola che aspirava da dentro, invece che da fuori. Tra l'altro era ventola in aspirazione montata vicino alle ventole, sempre in aspirazione, della 3080 che aveva su. In pratica creavano il vuoto negativo ahahahah

Bellissimo :D :doh:

marbasso
26-02-2024, 11:45
Quello che succede è esattamente questo: durante il gioco (a volte dopo 10 secondi, a volte dopo 1 minuto, 10 minuti o mezz'ora) il pc freeza immagine e input per quale secondo e poi si riavvia; oppure, torna improvvisamente al desktop per qualche secondo (freezato) e poi si riavvia.
Mi viene da pensare che, se fosse l'alimentatore, non andrebbe in freeze per quei pochi secondi, ma si riavvierebbe di botto.
Cosa ne pensate?

Abbassa il clock dell GPU di 300mhz (anche 500) e quelle delle vmem sempre di 300 MHz e vedi se lo fa ancora.
Usa AB magari.
È una prova che non ti costa nulla ed escludi la.vga.

Potresti anche vedere se è l' ali ficcando il pl al 45% alla vga e come al.solito giocando.

parcher
26-02-2024, 12:20
Ciao, ho appena aggiornato i driver per 4080 alla versione 551.61. Non si avvia più Riva Tuner che ho già disinstallato e reinstallato, qualcuno che lo usa ha notato lo stesso problema? Non so se sia imputabile ai nuovi driver ma sembra una strana coincidenza...

Scaricar questa ed aggiorna tutto, prova un po..

https://www.guru3d.com/download/msi-afterburner-beta-download/



Ora mi riallontano da questo forum felicemente..... Buona fortuna Alekos...

IL buon Thunder ;) Dispiace non leggerti...

Thunder-74
26-02-2024, 12:30
Scaricar questa ed aggiorna tutto, prova un po..

https://www.guru3d.com/download/msi-afterburner-beta-download/



IL buon Thunder ;) Dispiace non leggerti...

Grazie, apprezzo molto ;)

magic carpet
26-02-2024, 13:14
Grazie, apprezzo molto ;)

Mitico Thunder, passa ogni tanto a trovarci.
Altrimenti come farò a flashare la 5090 senza i tuoi preziosi consigli? :D
Davvero, grazie ancora! :)

Magistercris
26-02-2024, 14:38
Un caro saluto Thunder!
Ogni tanto passa!
Ciao

beatl
26-02-2024, 14:45
Come fate ad escludere che sia la PSU perchè il reset non è immediato?
Se l'erogazione non è costante, ci possono essere degli spike in negativo che fanno impallare una delle componenti del PC (verosimilmente la VGA) e il freeze e poi il crash è conseguenza....

Questo per dire che non deve essere fritto del tutto l'ali, ma basta che non sia più efficiente e non stia dietro alla richiesta di tensione delle componenti, per avere un freeze/blocco/crash e reset.

Purtroppo solo con l'oscilloscopio professionale si riesce a leggere la fluttuazione di voltaggio date alle linee, ma intanto puoi aprire HWinfo settarlo sul refresh più basso in termini di ms e vedere se la linea dei 12v rimane nel ranger dei +/- 5% ...

Ora mi riallontano da questo forum felicemente..... Buona fortuna Alekos...

E dove scappi ... Anche se abbiamo interagito poco, leggo sempre molto.

A presto

Sunjan88
26-02-2024, 14:48
usa gsync e vsync dal pannello nvidia e disattivalo nei giochi, metti il cap fps nel pannello nvidia -2fps sotto il tuo refresh rate
grazie mille gentilissimo :)

Thunder-74
26-02-2024, 16:10
Mitico Thunder, passa ogni tanto a trovarci.
Altrimenti come farò a flashare la 5090 senza i tuoi preziosi consigli? :D
Davvero, grazie ancora! :)

Un caro saluto Thunder!
Ogni tanto passa!
Ciao

E dove scappi ... Anche se abbiamo interagito poco, leggo sempre molto.

A presto

Grazie per l'affetto ragazzi, non mancherò dai ;)

Denny21
26-02-2024, 16:36
Ciao a tutti, mi è appena arrivata una PNY 4080 super, vengo da una 4070 liscia.
Ho disinstallato i driver vecchi, cambiato la scheda video e alla avvio di Windows installati i driver nuovi.
Ho notato qualche Lag del mouse in Windows, normalmente al cambio di scheda video, bisogna fare qualche operazione particolare? Una passata di display driver uninstaller?

razor820
26-02-2024, 17:22
Io continuo ad avere cali drop di fps con utilizzo di gpu al 50%.
Altro esempio stavo giocando con Banisher e in alcune situazioni, del tipo quando mi trovo ad osservare il panorama l'utilizzo della gpu scende al 50%, e guardando in quella direzione resta stabile fino a a quando non trovo un altra visuale e tutto torna alla normalità.
In passato avevo scritto che mi capitava la stessa cosa con skull and bones, e da quanto ho capito è il motore grafico.

Chi lo sta giocando ha avvertito problemi di questo genere?
I driver video sono i penultimi, il carico della cpu è inesistente

marbasso
26-02-2024, 17:28
Ciao a tutti, mi è appena arrivata una PNY 4080 super, vengo da una 4070 liscia.
Ho disinstallato i driver vecchi, cambiato la scheda video e alla avvio di Windows installati i driver nuovi.
Ho notato qualche Lag del mouse in Windows, normalmente al cambio di scheda video, bisogna fare qualche operazione particolare? Una passata di display driver uninstaller?

Perdonami, ma al di là di tutto,io passo sempre ddu e poi installo, hai messo la 4080 con il 4790k?
Chiedo per curiosità.

marbasso
26-02-2024, 17:30
Io continuo ad avere cali drop di fps con utilizzo di gpu al 50%.
Altro esempio stavo giocando con Banisher e in alcune situazioni, del tipo quando mi trovo ad osservare il panorama l'utilizzo della gpu scende al 50%, e guardando in quella direzione resta stabile fino a a quando non trovo un altra visuale e tutto torna alla normalità.
In passato avevo scritto che mi capitava la stessa cosa con skull and bones, e da quanto ho capito è il motore grafico.

Chi lo sta giocando ha avvertito problemi di questo genere?
I driver video sono i penultimi, il carico della cpu è inesistente

Prova a levare il core parking di Windows su regedit. Trovi guide se googli.

Denny21
26-02-2024, 17:32
Anch'io ho qualche micro Lag e qualche grado di frame. Sto giocando a cyberpunk.Il problema di lag con il mouse in windows che segnalavo, forse è perché avevo schermo duplicato
Povero' anche altri giochi.

razor820
26-02-2024, 18:18
Prova a levare il core parking di Windows su regedit. Trovi guide se googli.


Non credo dipendi da quello. Il sistema è identico a una decina di giorni fa. Con la gpu precedente non avevo nessun problema. Vediamo a sto punto aggiorno i driver

fraussantin
26-02-2024, 18:35
Non credo dipendi da quello. Il sistema è identico a una decina di giorni fa. Con la gpu precedente non avevo nessun problema. Vediamo a sto punto aggiorno i driverSe ti puo consolare io oggi ho avuto una bsod in idle , non ne ho mai avute da quando ho cambiato le ram 2 anni fa.
Non ho cambiato niente nel sistema.
Ma la causa è il kernel quindi porrebbe essere il processore.

Ma anche un calo di tensione , che ne ho molti in questo periodo ( cioè li ho sempre ma non mi avevano mai dato problemi)

Cmq problemi simili al tuo con amd li dava col tpm 2.0 e i primi bios .

Se non hai aggiornato il bios nell'ultimo anno , proverei a partire da quello.

mikael84
26-02-2024, 18:37
Non credo dipendi da quello. Il sistema è identico a una decina di giorni fa. Con la gpu precedente non avevo nessun problema. Vediamo a sto punto aggiorno i driver

Il CPU limit, te lo sai calcolare?:)
L'usage CPU non centra nulla.
Avevo proplemi di CPU limit con la 3080 e CPU uguale alla tua, immagina se mettessi una GPU il 50-55% più veloce, dovrei mettere una CPU anch'essa il 50-55% più veloce.
Per vedere il CPU limit, oltre a valutare l'usage, devi monitorare i parametri in positivo (con dlss) o in negativo (dldsr).
Quando hai il 50% di utilizzo, mettendo il DLSS, la percentuale crolla, ed il frame rimane stabile, col DLDSR, aumenta l'usage.

Con banisher, ho avuto un calo pure io con 5800x3d e 3080, se mettessi una 4080, dovrei calcolare un altro 50% a quel calo.
Gamegpu, ha trovato il limite a partire dalla 3070 in 1440p, con un 5900x.
https://i.postimg.cc/yddbPydd/ben.png

eXeS
26-02-2024, 19:06
Il CPU limit, te lo sai calcolare?:)
L'usage CPU non centra nulla.
Avevo proplemi di CPU limit con la 3080 e CPU uguale alla tua, immagina se mettessi una GPU il 50-55% più veloce, dovrei mettere una CPU anch'essa il 50-55% più veloce.
Per vedere il CPU limit, oltre a valutare l'usage, devi monitorare i parametri in positivo (con dlss) o in negativo (dldsr).
Quando hai il 50% di utilizzo, mettendo il DLSS, la percentuale crolla, ed il frame rimane stabile, col DLDSR, aumenta l'usage.

Con banisher, ho avuto un calo pure io con 5800x3d e 3080, se mettessi una 4080, dovrei calcolare un altro 50% a quel calo.
Gamegpu, ha trovato il limite a partire dalla 3070 in 1440p, con un 5900x.
...https://i.postimg.cc/yddbPydd/ben.png

https://i.postimg.cc/HLx5nBYS/Screenshot-2024-02-26-200146.png (https://postimages.org/)

Quel gioco con una 4080 è CPU limit con tutte le CPU attuali e che verrano rilasciate nel prossimo futuro, peccato GameGPU non abbia CPU X3D ma penso non cambi molto, con il top intel in 4K va praticamente come in 1080p, mi sa che se disturba vedere un utilizzo basso della CPU bisognerà attendere qualche annetto e aggiornare la CPU, oppure fare un downgrade della GPU :D

terranux
26-02-2024, 19:30
No, non ce l'ho. Venerdì un collega dovrebbe prestarmi una 3090, e vedremo.
hai provato a testare la vram della gpu?

razor820
26-02-2024, 19:41
Il CPU limit, te lo sai calcolare?:)
L'usage CPU non centra nulla.
Avevo proplemi di CPU limit con la 3080 e CPU uguale alla tua, immagina se mettessi una GPU il 50-55% più veloce, dovrei mettere una CPU anch'essa il 50-55% più veloce.
Per vedere il CPU limit, oltre a valutare l'usage, devi monitorare i parametri in positivo (con dlss) o in negativo (dldsr).
Quando hai il 50% di utilizzo, mettendo il DLSS, la percentuale crolla, ed il frame rimane stabile, col DLDSR, aumenta l'usage.

Con banisher, ho avuto un calo pure io con 5800x3d e 3080, se mettessi una 4080, dovrei calcolare un altro 50% a quel calo.
Gamegpu, ha trovato il limite a partire dalla 3070 in 1440p, con un 5900x.
https://i.postimg.cc/yddbPydd/ben.png


Sto usando il DLAA in 1440p.
Vediamo a questo punto in 4K cosa succede.

Il problema non è sempre, solo in circostanza di alberi o guardando in lontananza. Non so se mi sono spiegato bene.

Per parametri in positivo cosa intendi?

Ma se fossi cpu limited non dovrei avere grossi problemi con cb2077 usando dls quality? Cosa che non mi succede

demonangel
26-02-2024, 19:52
Io ho reso una 4070tis appena ricevuta perché aveva 1 delle 3 ventole esageratamente rumorosa...un chiaro difetto produttivo.
Usato ll form di aiuto che è presente sul loro sito...per avviare la procedura


Ci riproviamo...messo in ordine su Ldlc ...4070ti super Tuf

wulff73
26-02-2024, 20:05
Con banisher, ho avuto un calo pure io con 5800x3d e 3080, se mettessi una 4080, dovrei calcolare un altro 50% a quel calo.
Gamegpu, ha trovato il limite a partire dalla 3070 in 1440p, con un 5900x.

Qui parlano di cali di framerate sul loro sistema di test (7950X3D, 48GB DDR5 6000Mhz@CL36):

https://www.computerbase.de/2024-02/banishers-ghosts-of-new-eden-benchmark-test/3/

Cito la traduzione testualmente: "Tuttavia, ci sono anche scene nel gioco che mettono a dura prova la CPU, mentre la scheda grafica gioca solo un ruolo subordinato qui, anche con un processore molto veloce. Questo è qualcosa da tenere a mente".

Per me si tratta di scarsa ottimizzazione del titolo visto che praticamente non gira a dovere nemmeno su una CPU da gaming top di gamma.

Denny21
26-02-2024, 20:15
Perdonami, ma al di là di tutto,io passo sempre ddu e poi installo, hai messo la 4080 con il 4790k?
Chiedo per curiosità.

No, scusa, la firma non è aggiornata. Ho un 13600K.
Ho notato dei lag e dei freeze mentre gioco a Cyberpunk.
Con la 4070 non succedeva.
Cosa potrebbe essere?

Alekos Panagulis
26-02-2024, 21:06
Abbassa il clock dell GPU di 300mhz (anche 500) e quelle delle vmem sempre di 300 MHz e vedi se lo fa ancora.
Usa AB magari.
È una prova che non ti costa nulla ed escludi la.vga.

Potresti anche vedere se è l' ali ficcando il pl al 45% alla vga e come al.solito giocando.

Abbassando pl e clock non ha reboot.
Ma potrebbe essere sia la scheda che il psu in questo caso....

edit: no, in realtà salta ugualmente, in ogni caso.

Inviato dal mio SM-S911B utilizzando Tapatalk

mikael84
26-02-2024, 21:36
Quel gioco con una 4080 è CPU limit con tutte le CPU attuali e che verrano rilasciate nel prossimo futuro, peccato GameGPU non abbia CPU X3D ma penso non cambi molto, con il top intel in 4K va praticamente come in 1080p, mi sa che se disturba vedere un utilizzo basso della CPU bisognerà attendere qualche annetto e aggiornare la CPU, oppure fare un downgrade della GPU :D

Dai almeno in 4k comincia ad essere sfruttata la 4080, visto che quelle sotto scendono abbastanza.:D
In linea di massima, sarebbe anche il suo Habitat:D

Sto usando il DLAA in 1440p.
Vediamo a questo punto in 4K cosa succede.

Il problema non è sempre, solo in circostanza di alberi o guardando in lontananza. Non so se mi sono spiegato bene.

Per parametri in positivo cosa intendi?

Ma se fossi cpu limited non dovrei avere grossi problemi con cb2077 usando dls quality? Cosa che non mi succede

Devi giocare con DLDSR o DLSS per capire meglio il CPU limit.
Se faccio 70fps, l'usage della GPU scende a 85, li c'è un caso probabile di CPU limit. Quindi devi utilizzare il DLSS e vedere come si comporta il frame, se aumenta abbastanza è solo la lettura di AB.
In caso di bassi usage come il 50%, dovresti provare col DLDSR e vedere l'usage ed il frame come si comporta, e giocarlo direttamente li nel caso, visto che la scheda dorme.

In CB2077, stessa cosa, il CPU limit si presenta soprattutto con gli NPC, e li devi essere bravo tu a leggere, come detto sopra. In ogni caso, se il calo non compromette la giocata, ed il frame per te è accettabile, puoi pure fregartene.
Ciò che devi mettere in conto, è che il sistema è molto sbilanciato.
1440p + 4080, è un sistema già da 7800x3d.
Già mettendo un 5800x3d guadagneresti non poco, inoltre rivenderesti il tuo a quasi la stessa cifra.

Qui parlano di cali di framerate sul loro sistema di test (7950X3D, 48GB DDR5 6000Mhz@CL36):

https://www.computerbase.de/2024-02/banishers-ghosts-of-new-eden-benchmark-test/3/

Cito la traduzione testualmente: "Tuttavia, ci sono anche scene nel gioco che mettono a dura prova la CPU, mentre la scheda grafica gioca solo un ruolo subordinato qui, anche con un processore molto veloce. Questo è qualcosa da tenere a mente".

Per me si tratta di scarsa ottimizzazione del titolo visto che praticamente non gira a dovere nemmeno su una CPU da gaming top di gamma.

La scarsa ottimizzazione, purtroppo la paghi con le CPU o GPU nuove, li è come sparare sulla croce rossa.:p
Cmq gira benissimo, non ci sono i paesini di requiem.:D

razor820
26-02-2024, 22:15
Dai almeno in 4k comincia ad essere sfruttata la 4080, visto che quelle sotto scendono abbastanza.:D
In linea di massima, sarebbe anche il suo Habitat:D



Devi giocare con DLDSR o DLSS per capire meglio il CPU limit.
Se faccio 70fps, l'usage della GPU scende a 85, li c'è un caso probabile di CPU limit. Quindi devi utilizzare il DLSS e vedere come si comporta il frame, se aumenta abbastanza è solo la lettura di AB.
In caso di bassi usage come il 50%, dovresti provare col DLDSR e vedere l'usage ed il frame come si comporta, e giocarlo direttamente li nel caso, visto che la scheda dorme.

In CB2077, stessa cosa, il CPU limit si presenta soprattutto con gli NPC, e li devi essere bravo tu a leggere, come detto sopra. In ogni caso, se il calo non compromette la giocata, ed il frame per te è accettabile, puoi pure fregartene.
Ciò che devi mettere in conto, è che il sistema è molto sbilanciato.
1440p + 4080, è un sistema già da 7800x3d.
Già mettendo un 5800x3d guadagneresti non poco, inoltre rivenderesti il tuo a quasi la stessa cifra.



La scarsa ottimizzazione, purtroppo la paghi con le CPU o GPU nuove, li è come sparare sulla croce rossa.:p
Cmq gira benissimo, non ci sono i paesini di requiem.:D


Si avevo pensato onde evitare il casinò di cambiare tutta la piattaforma e formattone al seguito di cambiare solamente cpu e andare di 5800x3d

Il mio obbiettivo per ora è di giocare in 4k, quando finalmente arriverà questo monitor che sembra esser stato spedito da Marte allora in caso opterò per passare al massimo a 5800x3d.
Ma per un upgrade di piattaforma almeno per un annetto voglio stare sereno.

Detto ciò questo gioco è bellissimo. Peccato se avessero curato maggior mente la grafica sarebbe stato forse uno dei migliori degli ultimi anni

fraussantin
27-02-2024, 06:59
Si avevo pensato onde evitare il casinò di cambiare tutta la piattaforma e formattone al seguito di cambiare solamente cpu e andare di 5800x3d

Il mio obbiettivo per ora è di giocare in 4k, quando finalmente arriverà questo monitor che sembra esser stato spedito da Marte allora in caso opterò per passare al massimo a 5800x3d.
Ma per un upgrade di piattaforma almeno per un annetto voglio stare sereno.

Detto ciò questo gioco è bellissimo. Peccato se avessero curato maggior mente la grafica sarebbe stato forse uno dei migliori degli ultimi anni

Anche io sono combattuto , fra mettere un 5800 3d e aspettare i nuovi amd 3d 88003d o 98003d non ho capito come li chiameranno o se in estate metterci 1000 euro e cambiare. ( 1000 euro incluso ssd nuovo 4 gen e dissipatore artic , potrei anche riutilizzare quelli che ho e spendere solo 800 euro )

Combattuto perche oggi la piatta vale circa 400 euro forse qualcosa in più fra un anno sarà da buttare.

Salfox
27-02-2024, 07:05
Detto ciò questo gioco è bellissimo. Peccato se avessero curato maggior mente la grafica sarebbe stato forse uno dei migliori degli ultimi anni

Più ci gioco e più rimango estasiato dalla bellezza e profondità di questo gioco, sarà forse il primo gioco che mi indurrà a fare una seconda run.
Una curiosità, tu cosa hai giurato? Ascesa o rinascita?

Rumpelstiltskin
27-02-2024, 07:20
Più ci gioco e più rimango estasiato dalla bellezza e profondità di questo gioco, sarà forse il primo gioco che mi indurrà a fare una seconda run.
Una curiosità, tu cosa hai giurato? Ascesa o rinascita?


Alla fine lo ho preso anche io!
Devo dire che finalmente è qualcosa di diverso e che ti incolla sulla sedia.

Unica pecca : se cerco di attivare l'overlay di AB crasha il game e torno sul desktop

Ps: io ho giurato rinascita.

Salfox
27-02-2024, 07:29
Alla fine lo ho preso anche io!
Devo dire che finalmente è qualcosa di diverso e che ti incolla sulla sedia.

Unica pecca : se cerco di attivare l'overlay di AB crasha il game e torno sul desktop

Ps: io ho giurato rinascita.

Anche io ho fatto lo stesso ma la voglia è tanta di vedere cosa succede facendo l'opposto, ci sto giocando da un casino di tempo e sono ancora solo al 50% di completamento.
Per quanto riguarda l'overlay, strano, io non ho nessun problema attivandolo e gioco con il mio monitorino in alto a dx con temperatura e frames.

Predator_1982
27-02-2024, 08:53
Alla fine lo ho preso anche io!
Devo dire che finalmente è qualcosa di diverso e che ti incolla sulla sedia.

Unica pecca : se cerco di attivare l'overlay di AB crasha il game e torno sul desktop

Ps: io ho giurato rinascita.

Banisher? io l'ho provato e non mi piace molto (ma ammetto che non amo particolarmente il genere). Poi graficamente mi sa di vecchio, come anche chessò la dinamica dei combattimenti

razor820
27-02-2024, 09:53
Anche io sono combattuto , fra mettere un 5800 3d e aspettare i nuovi amd 3d 88003d o 98003d non ho capito come li chiameranno o se in estate metterci 1000 euro e cambiare. ( 1000 euro incluso ssd nuovo 4 gen e dissipatore artic , potrei anche riutilizzare quelli che ho e spendere solo 800 euro )

Combattuto perche oggi la piatta vale circa 400 euro forse qualcosa in più fra un anno sarà da buttare.

Ti conviene aspettare, tanto il valore tra vendita dell usato e acquisto sarà sempre lì. Se vendi ora si 400 euro ma poi passare al 7800 ti costa ora di più. Se invece aspetti la nuova generazione, automaticamente scenderà anche il 7800 oltre al tuo.
Io sotto un certo prezzo non la venderei mai, preferisco tenerla, 3 anni fa ci ho speso 1000 euro. Poi ora vedo che le mobo anche quelle di qualità inferiore sono aumentati di prezzo.

Più ci gioco e più rimango estasiato dalla bellezza e profondità di questo gioco, sarà forse il primo gioco che mi indurrà a fare una seconda run.

Una curiosità, tu cosa hai giurato? Ascesa o rinascita?


Rinascita ma in base alla situazione se mi va giudico in maniera diversa.
Comunque si come detto dall utente sopra, la grafica di alcune cose sembra vecchia, tipo le rocce, i sentieri e gli stessi spettri. Però i volti dei personaggi in primo piano non sono così pessimi.

Discorso Rivatuner a me funziona nel gioco. Non ho le versioni beta e ho i penultimi driver di nvidia

fraussantin
27-02-2024, 11:57
Ti conviene aspettare, tanto il valore tra vendita dell usato e acquisto sarà sempre lì. Se vendi ora si 400 euro ma poi passare al 7800 ti costa ora di più. Se invece aspetti la nuova generazione, automaticamente scenderà anche il 7800 oltre al tuo.
Io sotto un certo prezzo non la venderei mai, preferisco tenerla, 3 anni fa ci ho speso 1000 euro. Poi ora vedo che le mobo anche quelle di qualità inferiore sono aumentati di prezzo.


Cmq a fine marzo escono 2 giochi che mi interessano.

Horizon 2 e dragon dogma.

Se questo mi girano a 120 e oltre , ma penso di si .. aspetto senno prendo una decisione.

djsnake
27-02-2024, 12:09
Cmq a fine marzo escono 2 giochi che mi interessano.

Horizon 2 e dragon dogma.

Se questo mi girano a 120 e oltre , ma penso di si .. aspetto senno prendo una decisione.

Sono nella stessa identica situazione (e aspetto gli stessi 2 giochi :D)
Sono tentato dal 5800x3d ma ad oggi sono all'80% per aspettare gli 8000x3d e magari fare una piattaforma am5 con un 7800x3d (che magari scende di prezzo con l'uscita degli 8000)

Predator_1982
27-02-2024, 12:17
ma no ragazzi che senso ha passare oggi al 5800x3d

Attendete i nuovi che comunque in termini di IPC vi assicurano una piattaforma in generale più adeguata anche in vista delle nuove GPU. Io penso che al prossimo giro andrò di piatta AMD 8000

mikael84
27-02-2024, 12:18
Si avevo pensato onde evitare il casinò di cambiare tutta la piattaforma e formattone al seguito di cambiare solamente cpu e andare di 5800x3d

Il mio obbiettivo per ora è di giocare in 4k, quando finalmente arriverà questo monitor che sembra esser stato spedito da Marte allora in caso opterò per passare al massimo a 5800x3d.
Ma per un upgrade di piattaforma almeno per un annetto voglio stare sereno.

Detto ciò questo gioco è bellissimo. Peccato se avessero curato maggior mente la grafica sarebbe stato forse uno dei migliori degli ultimi anni

Si 4k e 5800x3d, e campi tranquillo sino al 9800x3d.
Considera che zen5 verrà totalmente rivisto lato front-end e le perf con i 3d potrebbero essere alte.
La cache aumenta drasticamente l'IPC grazie alla quantità e all'alto hit rate, ma sbatte col front-end.

Difficile da spiegare terra terra, però, a parer mio ti conviene direttamente fare un ponte con il 5800 ed aspettare zen5.
Almeno un anno ti godi meglio la scheda, poi se vuoi fare il grande salto al 7800x3d, beh, vai ancora meglio.:)

Concordo su banisher, non mi fa ne impazzire come i giochi del team, ma non pare neppure brutto.

ma no ragazzi che senso ha passare oggi al 5800x3d

Attendete i nuovi che comunque in termini di IPC vi assicurano una piattaforma in generale più adeguata anche in vista delle nuove GPU. Io penso che al prossimo giro andrò di piatta AMD 8000


Per un anno fa ponte, e si gode meglio la scheda. Tanto per i 9800x3d ci vorrà minimo un anno. Tra rivendersi il suo, ed il prezzo attuale dei 3d, fa quasi pari. :)

Predator_1982
27-02-2024, 12:25
Per un anno fa ponte, e si gode meglio la scheda. Tanto per i 9800x3d ci vorrà minimo un anno. Tra rivendersi il suo, ed il prezzo attuale dei 3d, fa quasi pari. :)

Gli intel futuri non li considerate più? :rolleyes:

mikael84
27-02-2024, 12:32
Gli intel futuri non li considerate più? :rolleyes:

Si, certo, era giusto per rimanere in tema dei 3d, visto che di quelli si parlava.

fraussantin
27-02-2024, 13:28
Si, certo, era giusto per rimanere in tema dei 3d, visto che di quelli si parlava.Intel ora come ora non mi piaceva per via dei tdp assurdi.

Poi non ho mai approfondito quanto fanno meno i non k ed eventualmente se si possono mettere su mobo h senza perdere l'overclock delle ram .

Il 5800x3d alla fine si da un boost alla piatta , ma non è che sconvolga il framerate.

Sui giochi dove pecca il 5900 , il 58003d pecca un po meno , ma sempre parecchio dietro al 7800 sta.

Vedrò cosa fare intanto mi informo un po sia mai che trovo qualche offerta.

mikael84
27-02-2024, 13:36
Intel ora come ora non mi piaceva per via dei tdp assurdi.

Poi non ho mai approfondito quanto fanno meno i non k ed eventualmente se si possono mettere su mobo h senza perdere l'overclock delle ram .

Il 5800x3d alla fine si da un boost alla piatta , ma non è che sconvolga il framerate.

Sui giochi dove pecca il 5900 , il 58003d pecca un po meno , ma sempre parecchio dietro al 7800 sta.

Vedrò cosa fare intanto mi informo un po sia mai che trovo qualche offerta.

Beh, indubbiamente il 7800 è meglio del 5800, il discorso è, migliorare rimanendo sulla stessa piatta.

amon.akira
27-02-2024, 14:05
Beh, indubbiamente il 7800 è meglio del 5800, il discorso è, migliorare rimanendo sulla stessa piatta.

a costo zero aggiungerei o quasi, se vendi il 5900x usato ci compri un 5800x3d giusto?

mikael84
27-02-2024, 14:11
a costo zero aggiungerei o quasi, se vendi il 5900x usato ci compri un 5800x3d giusto?

Hai centrato.:)
E nel mentre aspetti i nuovi AMD o intel con calma.

razor820
27-02-2024, 14:58
Comunque ho visto qualche video di comparazione in 4K con diverse cpu, differenze quasi nulla tra il 5800x3d e il 5900x. Ma rispetto al 14700 anche in questa risoluzione ci passa un abisso. Quasi il 40% di differenza.

Non so se è il topic giusto.
Qualcuno mi consiglia qualche sito dove ci son benchmark in 4K tra le diverse gen di cpu?

Guarda un po&rsquo; che a fine marzo mi viene qualche altra paranoia.
La serie 14 di Intel mi piace, ma trovo assurdo il tdp e le temperature che si portano dietro.

Black"SLI"jack
27-02-2024, 15:06
a costo zero aggiungerei o quasi, se vendi il 5900x usato ci compri un 5800x3d giusto?Purtroppo no, ho preso alcune settimane fa un 5900x per il mio serverino, preso a 277 da amaz. Per un amico, ho preso ieri il 5800x3d da abbinare ad una 4080, a 265 euro da altro noto sito. Quindi rivedendo il 5900x non ci prendi il x3d.

Inviato dal mio SM-S908B utilizzando Tapatalk

Cutter90
27-02-2024, 15:06
Comunque ho visto qualche video di comparazione in 4K con diverse cpu, differenze quasi nulla tra il 5800x3d e il 5900x. Ma rispetto al 14700 anche in questa risoluzione ci passa un abisso. Quasi il 40% di differenza.

Non so se è il topic giusto.
Qualcuno mi consiglia qualche sito dove ci son benchmark in 4K tra le diverse gen di cpu?

Guarda un po&rsquo; che a fine marzo mi viene qualche altra paranoia.
La serie 14 di Intel mi piace, ma trovo assurdo il tdp e le temperature che si portano dietro.

Passare alla 14 ora di Intel è una follia, secondo me. Piattaforma morta che verrà sostituita dai prossimi, al max si aspetta quella. Amd in questo momento lato gaming con il 3D è avanti sotto tanti punti di vista con piattaforma appena uscita.

amon.akira
27-02-2024, 15:13
Purtroppo no, ho preso alcune settimane fa un 5900x per il mio serverino, preso a 277 da amaz. Per un amico, ho preso ieri il 5800x3d da abbinare ad una 4080, a 265 euro da altro noto sito. Quindi rivedendo il 5900x non ci prendi il x3d.

Inviato dal mio SM-S908B utilizzando Tapatalk

sono abbassati tantissimo, cmq si alla fine è un piccolo upgrade lato gaming con un piccolo esborso cambiando solo cpu

mikael84
27-02-2024, 15:13
Comunque ho visto qualche video di comparazione in 4K con diverse cpu, differenze quasi nulla tra il 5800x3d e il 5900x. Ma rispetto al 14700 anche in questa risoluzione ci passa un abisso. Quasi il 40% di differenza.

Non so se è il topic giusto.
Qualcuno mi consiglia qualche sito dove ci son benchmark in 4K tra le diverse gen di cpu?

Guarda un po&rsquo; che a fine marzo mi viene qualche altra paranoia.
La serie 14 di Intel mi piace, ma trovo assurdo il tdp e le temperature che si portano dietro.

Il 5800x3d, va alcune volte anche il 30%, lascia perdere le comparazioni, devi provare con mano.
Cmq, ad esempio, su PL, va il 30% esatti.
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-Release-CPU-Review-Test-AMD-Intel-Vergleich-1428779/2/

Purtroppo no, ho preso alcune settimane fa un 5900x per il mio serverino, preso a 277 da amaz. Per un amico, ho preso ieri il 5800x3d da abbinare ad una 4080, a 265 euro da altro noto sito. Quindi rivedendo il 5900x non ci prendi il x3d.

Inviato dal mio SM-S908B utilizzando Tapatalk

Beh, ok, ci aggiungi 50 euro, ma lato gaming guadagni.:p

FrancoBit
27-02-2024, 15:23
Comunque ho visto qualche video di comparazione in 4K con diverse cpu, differenze quasi nulla tra il 5800x3d e il 5900x. Ma rispetto al 14700 anche in questa risoluzione ci passa un abisso. Quasi il 40% di differenza.

Non so se è il topic giusto.
Qualcuno mi consiglia qualche sito dove ci son benchmark in 4K tra le diverse gen di cpu?

Guarda un po&rsquo; che a fine marzo mi viene qualche altra paranoia.
La serie 14 di Intel mi piace, ma trovo assurdo il tdp e le temperature che si portano dietro.

Io farei ponte con un 58003d fino a fine anno o inizio 2025. Poi scegli tra alder e Amd cosa è meglio acquistare. Oggi una 14esima non la prenderei, se proprio devo comprare una nuova piattaforma adesso prendo un amd. Il discorso si riferisce alla possibilità di ulteriori upgrade ovviamente, oltre alle ottime prestazioni degli AMD. Altrimenti se vuoi risparmiare, aspetta direttamente fine anno.

razor820
27-02-2024, 15:47
Vi ringrazio a tutti dei consigli.
Vedremo come si protrae la situazione è quando comincerò ad avere problemi con i giochi a cui mi sto dedicando

CtrlAltSdeng!
27-02-2024, 16:02
Sono nella stessa identica situazione (e aspetto gli stessi 2 giochi :D)
Sono tentato dal 5800x3d ma ad oggi sono all'80% per aspettare gli 8000x3d e magari fare una piattaforma am5 con un 7800x3d (che magari scende di prezzo con l'uscita degli 8000)

se tenessi tutto per almeno altri due anni avrebbe senso, altrimenti meglio risparmiare e saltare su AM5 e avere un bel ventaglio di possibilità domani da valutare fino al 2026 sicuro (zen 6)....spero solo che il 8700x 8core zen5 non costi troppo rispetto al 7800x3d in "saldo" a fine anno :stordita: .... inutile salire oltre di core count per una gaming rig

-Chojin-
27-02-2024, 21:37
Scusate se chiedo anche qui, secondo NVIDIA dovrei collegare la gpu con tre linee indipendenti dell’ alimentatore al loro connettore triplo sconsigliando di usare un 8 pin più un sdoppiato “pig-tail”. Altrove mi hanno detto che non è pericoloso. Secondo voi?

razor820
27-02-2024, 22:46
Scusate se chiedo anche qui, secondo NVIDIA dovrei collegare la gpu con tre linee indipendenti dell’ alimentatore al loro connettore triplo sconsigliando di usare un 8 pin più un sdoppiato “pig-tail”. Altrove mi hanno detto che non è pericoloso. Secondo voi?


Sono curioso pure io. Ad ora ho una linea diretta e una sdoppiata

Salfox
28-02-2024, 06:00
Sono curioso pure io. Ad ora ho una linea diretta e una sdoppiata

Come è stato detto più volte, se il tuo alimentatore ha in dotazione i cavi a doppia testa, significa che è in grado di erogare 300W su una singola linea e quindi si può tranquillamente alimentare una vga con due teste di un solo cavo.
Per fare un esempio, io, prima di prendere il cavo corsair apposito (che tra le altre cose sfrutta due sole linee di alimentazione dall'ali) avevo alimentata la mia 4090 FE con soli due cavi a due teste senza alcun problema.
Ovviamente ciò vale solo con marche di alimentatori serie (e qui credo che tutti hanno quelle), il warn di Nvidia è per quei folli che alimentano una vga 4000 con un alimentatore scrauso.

fraussantin
28-02-2024, 08:01
Come è stato detto più volte, se il tuo alimentatore ha in dotazione i cavi a doppia testa, significa che è in grado di erogare 300W su una singola linea e quindi si può tranquillamente alimentare una vga con due teste di un solo cavo.
Per fare un esempio, io, prima di prendere il cavo corsair apposito (che tra le altre cose sfrutta due sole linee di alimentazione dall'ali) avevo alimentata la mia 4090 FE con soli due cavi a due teste senza alcun problema.
Ovviamente ciò vale solo con marche di alimentatori serie (e qui credo che tutti hanno quelle), il warn di Nvidia è per quei folli che alimentano una vga 4000 con un alimentatore scrauso.Il warn penso sia per chi usa adattatori non originali che permettono di alimentare la scheda con 2 uscite da 150w teoricamente non certificate per 300 anche se ormai in wuasi tutti gli alimentatori lo sono.

Se usate cavi originali non cambia nulla.

Slash82
28-02-2024, 09:36
Ciao, ho una 3060ti founders edition comprata nel mese di ottobre del 2022. Se dovessi venderla, la garanzia è trasferibile al nuovo acquirente? L'ho comprata direttamente da nvidia (ldlc) e non l'ho mai registrata.

Predator_1982
28-02-2024, 09:40
io in questi casi passo la fattura e amen, problemi non ce ne sono.

jaja36
28-02-2024, 10:24
Qualcuno ha provato la nuova app di Nvidia (http://www.nvidia.com/en-us/software/nvidia-app/)? Regalano l'ultimo Call of Duty.

djsnake
28-02-2024, 10:36
Qualcuno ha provato la nuova app di Nvidia (http://www.nvidia.com/en-us/software/nvidia-app/)? Regalano l'ultimo Call of Duty.

Non credo regalino cod, ma un pack XP per cod

Salfox
28-02-2024, 11:49
Qualcuno ha provato la nuova app di Nvidia? Regalano l'ultimo Call of Duty.

Eh si magari :D :D :D :D
Quello che regalano è un boost xp per chi ha il gioco...
In ogni caso se n'è già parlato tanto delle nuova app, io personalmente l'ho installata e tolta subito perchè più che una app sembra un bloatware :D :D :D , superinvasivo.

albero77
28-02-2024, 12:48
Cmq a fine marzo escono 2 giochi che mi interessano.

Horizon 2 e dragon dogma.

Se questo mi girano a 120 e oltre , ma penso di si .. aspetto senno prendo una decisione.

Anche a me sarebbe piaciuto aspettare, ma poi inaspettatamente sono riuscito a rivendere bene l'intera piattaforma am4 che avevo. Il problema è che più aspetti e più si svaluta tutto e poi davvero ti rimane sul groppone o devi regalare. Il 7800x3d abbinato alla 4090 credo sia proprio il minimo sindacale visto e considerato che il 5800x3d spesso viene venduto ancora a cifre folli.

fraussantin
28-02-2024, 12:50
Anche a me sarebbe piaciuto aspettare, ma poi inaspettatamente sono riuscito a rivendere bene l'intera piattaforma am4 che avevo. Il problema è che più aspetti e più si svaluta tutto e poi davvero ti rimane sul groppone o devi regalare. Il 7800x3d abbinato alla 4090 credo sia proprio il minimo sindacale visto e considerato che il 5800x3d spesso viene venduto ancora a cifre folli.A quanto hai venduto tutta la baracca?

albero77
28-02-2024, 13:16
A quanto hai venduto tutta la baracca?

550 tutto il blocco(si lo so che sembra assurdo ma tant'è), calcolando che mi sono poi "accontentato" di una b650 liscia a meno di 200 euro con un 7800x3d comprato a 330 circa direi che non c'ho rimesso quasi nulla. Il 7800x3d è un processore entusiasmante, ho rifatto il bench di gears 5 in 4k ultra e sono perfettamente in linea con il 13900k del mio amico che però ha dei consumi fuori scala. Uso come metro di paragone il bench di gears 5. Stiamo parlando di 20fps nei medi e altrettanti 20fps nei minimi persi con il 5900x che non sono pochi.

-Chojin-
28-02-2024, 13:19
Come è stato detto più volte, se il tuo alimentatore ha in dotazione i cavi a doppia testa, significa che è in grado di erogare 300W su una singola linea e quindi si può tranquillamente alimentare una vga con due teste di un solo cavo.
Per fare un esempio, io, prima di prendere il cavo corsair apposito (che tra le altre cose sfrutta due sole linee di alimentazione dall'ali) avevo alimentata la mia 4090 FE con soli due cavi a due teste senza alcun problema.
Ovviamente ciò vale solo con marche di alimentatori serie (e qui credo che tutti hanno quelle), il warn di Nvidia è per quei folli che alimentano una vga 4000 con un alimentatore scrauso.

Grazie delle risposte, per fortuna ho chiesto anche qui. Ieri avevo avuto un range di feedback tra gente che mi ha detto di avere una 4090 OC in daisy chain senza problemi, ed altri che mi hanno assicurato che avrei bruciato il pc e la casa, senza considerare tutti quelli che commentano semplicemente di comprarmi un’altro cavo… è ovvio che posso prendere un cavo aggiuntivo, ma devo trovarne uno ufficialmente compatibile, oppure mandare indietro l’alimentatore e prenderne un’altro che ne abbia tre in dotazione. Il senso era che volevo sapere se accendere il pc o no…

fraussantin
28-02-2024, 13:50
550 tutto il blocco(si lo so che sembra assurdo ma tant'è), calcolando che mi sono poi "accontentato" di una b650 liscia a meno di 200 euro con un 7800x3d comprato a 330 circa direi che non c'ho rimesso quasi nulla. Il 7800x3d è un processore entusiasmante, ho rifatto il bench di gears 5 in 4k ultra e sono perfettamente in linea con il 13900k del mio amico che però ha dei consumi fuori scala. Uso come metro di paragone il bench di gears 5. Stiamo parlando di 20fps nei medi e altrettanti 20fps nei minimi persi con il 5900x che non sono pochi.500 euro quando con 800 prendi il nuovo è ottimo

jaja36
28-02-2024, 18:03
Eh si magari :D :D :D :D
Quello che regalano è un boost xp per chi ha il gioco...
In ogni caso se n'è già parlato tanto delle nuova app, io personalmente l'ho installata e tolta subito perchè più che una app sembra un bloatware :D :D :D , superinvasivo.

Mi sembrava strano del gioco completo, io lo sto provando e non mi dispiace.

Mi sarei aspettato delle migliorie nel control panel dei driver ma aimè ancora rimane tale.

Evangelion01
28-02-2024, 21:56
Il 5800x3d alla fine si da un boost alla piatta , ma non è che sconvolga il framerate.

Sui giochi dove pecca il 5900 , il 58003d pecca un po meno , ma sempre parecchio dietro al 7800 sta.


Parecchio mica tanto, c'è da considerare anche la risoluzione a cui si gioca. Di solito fanno i bench a 1080p per far risaltare le differenze, ma con schede top di gamma di certo non giochi a quella res. Quando il carico si sposta sulla gpu, ovvero a 4k, le differenze si appianano assai tipo che tra 7800x3d e 5800x3d ci passa un 6% medio ( fonte TPU ) così come tra 5800x3d e 5900 in favore del primo. Certo, se poi vuoi giocare a bassa risoluzione e alto frame rate il discorso cambia, ma quella è un'altra storia ;)

fraussantin
28-02-2024, 22:19
Parecchio mica tanto, c'è da considerare anche la risoluzione a cui si gioca. Di solito fanno i bench a 1080p per far risaltare le differenze, ma con schede top di gamma di certo non giochi a quella res. Quando il carico si sposta sulla gpu, ovvero a 4k, le differenze si appianano assai tipo che tra 7800x3d e 5800x3d ci passa un 6% medio ( fonte TPU ) così come tra 5800x3d e 5900 in favore del primo. Certo, se poi vuoi giocare a bassa risoluzione e alto frame rate il discorso cambia, ma quella è un'altra storia ;)

al momento gioco in 3440x1440 poi si vedrà . per un 6% per me non vale la pena manco sbattermi a cambiarlo a pari prezzo , e se il 7800 desse solo un altro 6%( 12 totale) men che mai spenderei quelle cifre.

i dati che ho visto io sono molto diversi nei giochi dove ci sono problemi lato cpu . poi se implementano fg già si tampona bene.


esempio: ghostrunner 2 ( gioco favoloso che consiglio tra l'altro) 155 fps tranquilli con gpu manco al massimo ... di schianto droppa a 70 e in un gioco simile e deleterio ( platform 3d difficile dove devi fare azioni concatenate precise) , attivato FG e risolto , adesso i drop sono a 110-130 e non li noti troppo .

Quindi sia lodato fg .

FrancoBit
29-02-2024, 09:20
al momento gioco in 3440x1440 poi si vedrà . per un 6% per me non vale la pena manco sbattermi a cambiarlo a pari prezzo , e se il 7800 desse solo un altro 6%( 12 totale) men che mai spenderei quelle cifre.

i dati che ho visto io sono molto diversi nei giochi dove ci sono problemi lato cpu . poi se implementano fg già si tampona bene.


esempio: ghostrunner 2 ( gioco favoloso che consiglio tra l'altro) 155 fps tranquilli con gpu manco al massimo ... di schianto droppa a 70 e in un gioco simile e deleterio ( platform 3d difficile dove devi fare azioni concatenate precise) , attivato FG e risolto , adesso i drop sono a 110-130 e non li noti troppo .

Quindi sia lodato fg .

Dovrebbe darti una maggiore "solidità" nei minimi, piuttosto che balzi dei medi. Almeno questi in genere sono i guadagni nelle alte risoluzioni che si possono ottenere cambiando cpu o piattaforma

Cutter90
29-02-2024, 09:26
al momento gioco in 3440x1440 poi si vedrà . per un 6% per me non vale la pena manco sbattermi a cambiarlo a pari prezzo , e se il 7800 desse solo un altro 6%( 12 totale) men che mai spenderei quelle cifre.

i dati che ho visto io sono molto diversi nei giochi dove ci sono problemi lato cpu . poi se implementano fg già si tampona bene.


esempio: ghostrunner 2 ( gioco favoloso che consiglio tra l'altro) 155 fps tranquilli con gpu manco al massimo ... di schianto droppa a 70 e in un gioco simile e deleterio ( platform 3d difficile dove devi fare azioni concatenate precise) , attivato FG e risolto , adesso i drop sono a 110-130 e non li noti troppo .

Quindi sia lodato fg .

Eh, però attivare il FG in un gioco come ghostrunner non è una gran mossa dato che aumenta l'input lag in un gioco dove il tempismo è tutto.

h.rorschach
29-02-2024, 09:56
Eh, però attivare il FG in un gioco come ghostrunner non è una gran mossa dato che aumenta l'input lag in un gioco dove il tempismo è tutto.

FG con GSYNC non ha input lag significativo; senza GSYNC devi cappare a -2fps dal refresh rate e attivare vsync

Cutter90
29-02-2024, 11:18
FG con GSYNC non ha input lag significativo; senza GSYNC devi cappare a -2fps dal refresh rate e attivare vsync

Il gsync non c'entra nulla con il FG.
Il FG, senza reflex raddoppia quasi l'input lag. Con reflex l'input lag aumenta.
Esempio pratico
Se con 60 fps si ha 30 ms, con 120 si dovrebbe avere 15ms
Ma se i 120 fps sono ottenuti con il FG l'input lag non è 15, ma 25 circa.

h.rorschach
29-02-2024, 11:42
Il gsync non c'entra nulla con il FG.
Il FG, senza reflex raddoppia quasi l'input lag. Con reflex l'input lag aumenta.
Esempio pratico
Se con 60 fps si ha 30 ms, con 120 si dovrebbe avere 15ms
Ma se i 120 fps sono ottenuti con il FG l'input lag non è 15, ma 25 circa.

Tu prova e vedi

Cutter90
29-02-2024, 11:47
Tu prova e vedi

Eh, guarda che quelle che ho fatto sono prove. Il FG con il gsync non c'entra nulla per l'input lag. E' reflex che agisce.
Non è che se attivi il gsync, cosa che tra l'altro tutti hanno ormai attivo, ti cala l'input lag.

albero77
29-02-2024, 11:57
Sempre a proposito di 4090 un'interessante comparativa tra 5900x e 7800x3d di un gioco che sto letteralmente consumando. Sicuramente non sarà una meraviglia di programmazione e ottimizzazione, ma è fottutamente divertente.

https://www.youtube.com/watch?v=faRuW1l90no&ab_channel=TerraNigma

marbasso
29-02-2024, 12:25
Eh, guarda che quelle che ho fatto sono prove. Il FG con il gsync non c'entra nulla per l'input lag. E' reflex che agisce.
Non è che se attivi il gsync, cosa che tra l'altro tutti hanno ormai attivo, ti cala l'input lag.

Io gsync disabilitato da pannello Nvidia. Vsync controllato da applicazione ma sempre disabilitato anche lui in game. Vorrei capire se nei bench il gsync aiuta.

Cutter90
29-02-2024, 12:27
Io gaync disabilitato da pannello Nvidia. Vsync controllato da applicazione ma.sempre disabilitato anche lui. Vorrei capire se nei b nch il gaync aiuta.



Quando si gioca va sempre, ovviamente abilitato. Nei bench secondo me va disabilitato, lo suggerisce anche 3dmark

Cutter90
29-02-2024, 12:28
Sempre a proposito di 4090 un'interessante comparativa tra 5900x e 7800x3d di un gioco che sto letteralmente consumando. Sicuramente non sarà una meraviglia di programmazione e ottimizzazione, ma è fottutamente divertente.

https://www.youtube.com/watch?v=faRuW1l90no&ab_channel=TerraNigma

Una bella differenza direi. Ma è cos', il passaggio dal mio ex 11900k è stato molto molto simile

fraussantin
29-02-2024, 12:35
Tu prova e vediDico la mia esperienza personale:

FG non vuole vSync .

Perche se lo attivi crea stutter e casini . ( Parlo del vsync del gioco quello sul driver non agisce se è attivo il gsync)

Fg vuole anche una buona stabilità del framerate alla sorgente.
Se hai grossi sbarellamenti potrebbe causare alcuni artefatti .


Il gsync è a questo punto d'obbligo e anche il relativo -2 frame di cap .

Senza avrai tearing perche appunto non puoi usare vsync.

Cutter90
29-02-2024, 12:55
Dico la mia esperienza personale:

FG non vuole vSync .

Perche se lo attivi crea stutter e casini . ( Parlo del vsync del gioco quello sul driver non agisce se è attivo il gsync)

Fg vuole anche una buona stabilità del framerate alla sorgente.
Se hai grossi sbarellamenti potrebbe causare alcuni artefatti .


Il gsync è a questo punto d'obbligo e anche il relativo -2 frame di cap .

Senza avrai tearing perche appunto non puoi usare vsync.

No aspetta stai facendo confusione.
Il FG se superi i frame del pannello necessita di vsync, attivato da pannello perchè inagame il vsync quando è attivo il fg non funziona. Non crea nessun problema attivarlo

il -2 cap è inutile visto che c'è già reflex che lo fa (a me ad esempio cappa a 116 su 120) e attivando il FG c'è reflex per forza.

Il gsync lavora benissimo con FG e con Vsync

fraussantin
29-02-2024, 13:11
No aspetta stai facendo confusione.
Il FG se superi i frame del pannello necessita di vsync, attivato da pannello perchè inagame il vsync quando è attivo il fg non funziona. Non crea nessun problema attivarlo

il -2 cap è inutile visto che c'è già reflex che lo fa (a me ad esempio cappa a 116 su 120) e attivando il FG c'è reflex per forza.

Il gsync lavora benissimo con FG e con VsyncIl vsync del pannello in combinazione con gsync mi ha sempre dato l impressione di non funzinare. Ma solo di forzare l'aggancio del gsync. Perche di fatto non aumenta lag o crea stutter se combinato al gsync.

Riguardo fg boh forse mi sbaglio , ma mi è capitato di averlo attivo con vsync del gioco è strutturava tutto.

Forse mi sbaglio però.

Cutter90
29-02-2024, 13:38
Il vsync del pannello in combinazione con gsync mi ha sempre dato l impressione di non funzinare. Ma solo di forzare l'aggancio del gsync. Perche di fatto non aumenta lag o crea stutter se combinato al gsync.

Riguardo fg boh forse mi sbaglio , ma mi è capitato di averlo attivo con vsync del gioco è strutturava tutto.

Forse mi sbaglio però.

Discorso generale che penso possa aiutare. Finche si sta dentro gli hz del monitor lavora solo il gsync, sincronizzando i frame tra gpu e monitor in modo da non visualizzare tearing.
Quando i frame superano la soglia degli hz del monito il gsync si "stacca" ed entra il vsync che "butta" i frame che lo superano, sinconizzare gli fps al max degli hz del monitor. Questo processo, quello del vsync, crea un aumento di latenza.

Con il Fg il vsync ingame NON funziona. Solo quello da pannello funziona. E funziona come al solito, scartando i frame oltre gli HZ anche con FG.

Lo stutter non centra con gsync, vsync e FG, che hanno a che fare con latenza e tearing. lo stutter lo crea il gioco ottimizzato male, un bottleneck cpu o altro.

fraussantin
29-02-2024, 13:41
Discorso generale che penso possa aiutare. Finche si sta dentro gli hz del monitor lavora solo il gsync, sincronizzando i frame tra gpu e monitor in modo da non visualizzare tearing.

Quando i frame superano la soglia degli hz del monito il gsync si "stacca" ed entra il vsync che "butta" i frame che lo superano, sinconizzare gli fps al max degli hz del monitor. Questo processo, quello del vsync, crea un aumento di latenza.



Con il Fg il vsync ingame NON funziona. Solo quello da pannello funziona. E funziona come al solito, scartando i frame oltre gli HZ anche con FG.



Lo stutter non centra con gsync, vsync e FG, che hanno a che fare con latenza e tearing. lo stutter lo crea il gioco ottimizzato male, un bottleneck cpu o altro.Ecco questo è un ottimo chiarimento.

Infatti non capivo il funzionamento del vsync del pannello , ma cosí quadra tutto

amon.akira
29-02-2024, 13:50
non c entra niente, puoi avere gsync e cap frame = hz del monitor ed hai tearing, con vsync on entra in gioco la latenza al ceiling hz, da cui i -2fps sul cap con vsync on + gsync.
con FG ovviamente non serve (il cap frame intendo), perchè hai il reflex ma negli altri casi si.

wulff73
01-03-2024, 14:22
Una bella differenza direi. Ma è cos', il passaggio dal mio ex 11900k è stato molto molto simile

Da 11900K al tuo il salto c'è eccome ma basta il 5800X3D per stare in nativo 4K ai livelli degli X3D AM5: il collo di bottiglia lo fa la GPU come si vede sotto tra il mio gameplay e quello del test di DF (siamo intorno ai 90+ fps entrambi).

https://youtu.be/fnRrBui6q0E?si=PD4juoogUykCaThV&t=720

https://youtu.be/5Nn8EXzjSQI?si=ghJbYTK2LuVj3Nrr&t=1

Comunque gioco con frametime molto stabile...godibilissimo anche sulle altre CPU 5000X.

Cutter90
01-03-2024, 14:43
Da 11900K al tuo il salto c'è eccome ma basta il 5800X3D per stare in nativo 4K ai livelli degli X3D AM5: il collo di bottiglia lo fa la GPU come si vede sotto tra il mio gameplay e quello del test di DF (siamo intorno ai 90+ fps entrambi).

https://youtu.be/fnRrBui6q0E?si=PD4juoogUykCaThV&t=720

https://youtu.be/5Nn8EXzjSQI?si=ghJbYTK2LuVj3Nrr&t=1

Comunque gioco con frametime molto stabile...godibilissimo anche sulle altre CPU 5000X.

Si si lo so infatti. ma il 5800 X3d è una cosa, il 5900 X un altra. nei giochi è la cache 3d che mette il turbo per cui una 50800 x3d va più del 5900 x

Cutter90
02-03-2024, 07:27
Nel primo pomeriggio provo un bel confronto FG AMD vs FG Nvidia su Robocop. Curiosissimo soprattutto delle latenze, oltre che della qualità d'immagine

albero77
02-03-2024, 11:29
500 euro quando con 800 prendi il nuovo è ottimo

ti dico serenamente che se non fossi riuscito a rivendere quello che avevo non avrei fatto il passaggio e il passaggio a 50xx per lo stesso motivo diventerà molto ma molto incerto per quanto mi riguarda.

Alekos Panagulis
02-03-2024, 11:43
Giusto per aggiornarvi sul mio problema dei random reboots.
Un collega mi ha prestato la sua 3090. La sera prima avevo avuto 10 reboots in ogni condizione: con oc, senza oc, con PL al 50%, con downclock...smontato la scheda, rimontata, pulito slot pcie, con ram diverse etc etc

Arrivo a casa, monto la 3090: 1 ora di gioco senza reboots. Sgomento, concludo: è la 4090, porcaccia la miseria.
La rimonto, la provo nuovamente. ROCK SOLID da ieri.
Boh. :mbe: :stordita: :fagiano:

amon.akira
02-03-2024, 11:49
Giusto per aggiornarvi sul mio problema dei random reboots.
Un collega mi ha prestato la sua 3090. La sera prima avevo avuto 10 reboots in ogni condizione: con oc, senza oc, con PL al 50%, con downclock...smontato la scheda, rimontata, pulito slot pcie, con ram diverse etc etc

Arrivo a casa, monto la 3090: 1 ora di gioco senza reboots. Sgomento, concludo: è la 4090, porcaccia la miseria.
La rimonto, la provo nuovamente. ROCK SOLID da ieri.
Boh. :mbe: :stordita: :fagiano:

praticamente lo smontaggio e rimontaggio ha risolto, quindi era qualche cavo forse messo male?

marbasso
02-03-2024, 12:41
Giusto per aggiornarvi sul mio problema dei random reboots.
Un collega mi ha prestato la sua 3090. La sera prima avevo avuto 10 reboots in ogni condizione: con oc, senza oc, con PL al 50%, con downclock...smontato la scheda, rimontata, pulito slot pcie, con ram diverse etc etc

Arrivo a casa, monto la 3090: 1 ora di gioco senza reboots. Sgomento, concludo: è la 4090, porcaccia la miseria.
La rimonto, la provo nuovamente. ROCK SOLID da ieri.
Boh. :mbe: :stordita: :fagiano:

Ah, hai visto, bene. Non sono rare questioni come questa. Ricordo ai tempi di Turing la 2080ti ogni tanto si impalla a e veniva vista come PCIex 1 mi pare o giù di lì. Bastava toglierla e rimetterla e tornava tutto. Misteri inspiegabili ma tutto è bene ciò che finisce bene.

terranux
02-03-2024, 12:55
Giusto per aggiornarvi sul mio problema dei random reboots.
Un collega mi ha prestato la sua 3090. La sera prima avevo avuto 10 reboots in ogni condizione: con oc, senza oc, con PL al 50%, con downclock...smontato la scheda, rimontata, pulito slot pcie, con ram diverse etc etc

Arrivo a casa, monto la 3090: 1 ora di gioco senza reboots. Sgomento, concludo: è la 4090, porcaccia la miseria.
La rimonto, la provo nuovamente. ROCK SOLID da ieri.
Boh. :mbe: :stordita: :fagiano:
ma un cmos era stato fatto?

Beseitfia
02-03-2024, 12:59
Buongiorno ragazzi, su uno dei due pc in firma dove ora ho una rtx 4080 super asus TUF, ho notato un comportamento anomalo. Il primo giorno che l ho montata, ho notato che dopo aver lasciato il pc in idle per qualche ora, al mio ritorno lo schermo era nero, ma non nero fisso, praticamente lampeggiava (sempre nero) come se stesse cercando di prendere il segnale. Il pc era acceso ma nessuna combinazione di tasti e' riuscita a risolvere alche' ho riavviato. In seguito ho fatto parecchi stress test, giocato per piu di una settimana e nessun problema.

Il problema si e' ripresentato ieri con la stessa dinamica, sempre in idle e senza nessun log relativo a driver ecc nel registro eventi. Premetto che dal primo giorno che ho montato la scheda ho usato un adattatore 12VHPWR preso su amazon, oggi ho messo l originale nvidia in bundle con la scheda, cambiato porta della scheda display port e cambiato i driver ai piu recenti e vedo un po se lo rifa.

Che ne pensate? Mi devo preoccupare? A qualcuno di voi e' mai successo? Potrebbe essere anche il monitor visto che e' da un po vecchiotto?

Alekos Panagulis
02-03-2024, 13:05
praticamente lo smontaggio e rimontaggio ha risolto, quindi era qualche cavo forse messo male?Ah, hai visto, bene. Non sono rare questioni come questa. Ricordo ai tempi di Turing la 2080ti ogni tanto si impalla a e veniva vista come PCIex 1 mi pare o giù di lì. Bastava toglierla e rimetterla e tornava tutto. Misteri inspiegabili ma tutto è bene ciò che finisce bene.L'avevo tolta e rimessa una decina di volte....
Cmq ancora non canto vittoria, vediamo nei prossimi giorni. ma un cmos era stato fatto?Ad essere sincero, no. Se si ripresenta il problema lo faccio.

Inviato dal mio SM-S911B utilizzando Tapatalk

fraussantin
02-03-2024, 13:15
L'avevo tolta e rimessa una decina di volte....
Cmq ancora non canto vittoria, vediamo nei prossimi giorni. Ad essere sincero, no. Se si ripresenta il problema lo faccio.

Inviato dal mio SM-S911B utilizzando TapatalkMa hai cambiato connettore lato psu?
Forse non spingeva bene il 16 pin magari rimontandolo è andato. Boh


Ps come ti trovi con la strix b650? La stavo puntando anche io

Cutter90
02-03-2024, 14:26
Ho effettuato qualche test per confrontare I Frame Gen AMD ed Nvidia su Robocop.

Partiamo con qualche numero secco, gioco maxato e 4k, scena fissa:
- NO DLSS 84 FPS Latenza 20 ms
- NO DLSS 84 fps Reflex ON 12 ms
- DLAA + FG Nvidia 120 fps Reflex On Latenza 18 ms
- DLSS Quality + FG Nvidia 155 fps Reflex On Latenza 13 ms
- FSR Quality + FG AMD 150 fps Reflex OFF Latenza 9-15 ms.
Reflex ON stessi risultati

Problemi enormi di frametime per il FG AMD che lo rendono di fatto inutilizzabile. Terribile la fluidità grafici di fps e frame time pessimi.
Prima foto FG Nvidia. Anche con vsync attivo da pannello il FG AMD resta inutilizzabile per via delle forti oscillazioni.

Prima immagine amd

https://i.postimg.cc/FdNcZshz/Immagine-Whats-App-2024-03-02-ore-15-24-26-964fb6a1.jpg (https://postimg.cc/FdNcZshz)

Nvidia

https://i.postimg.cc/vxmVJqgd/Immagine-Whats-App-2024-03-02-ore-15-24-26-c36fe0ce.jpg (https://postimg.cc/vxmVJqgd)

Direi che c'è poco da dire

Alekos Panagulis
02-03-2024, 14:33
Ma hai cambiato connettore lato psu?
Forse non spingeva bene il 16 pin magari rimontandolo è andato. Boh


Ps come ti trovi con la strix b650? La stavo puntando anche ioMi trovo abbastanza bene, niente di particolarmente esaltante. Queste cpu cmq non offrono particolare divertimento in oc... Se vrm sono ok le mobo si equivalgono un po' tutte.


Inviato dal mio SM-S911B utilizzando Tapatalk

marbasso
02-03-2024, 16:22
Buongiorno ragazzi, su uno dei due pc in firma dove ora ho una rtx 4080 super asus TUF, ho notato un comportamento anomalo. Il primo giorno che l ho montata, ho notato che dopo aver lasciato il pc in idle per qualche ora, al mio ritorno lo schermo era nero, ma non nero fisso, praticamente lampeggiava (sempre nero) come se stesse cercando di prendere il segnale. Il pc era acceso ma nessuna combinazione di tasti e' riuscita a risolvere alche' ho riavviato. In seguito ho fatto parecchi stress test, giocato per piu di una settimana e nessun problema.

Il problema si e' ripresentato ieri con la stessa dinamica, sempre in idle e senza nessun log relativo a driver ecc nel registro eventi. Premetto che dal primo giorno che ho montato la scheda ho usato un adattatore 12VHPWR preso su amazon, oggi ho messo l originale nvidia in bundle con la scheda, cambiato porta della scheda display port e cambiato i driver ai piu recenti e vedo un po se lo rifa.

Che ne pensate? Mi devo preoccupare? A qualcuno di voi e' mai successo? Potrebbe essere anche il monitor visto che e' da un po vecchiotto?

Dalle opzioni risparmio energia imposta disattivazione schermo su mai, e vedi se il problema si ripresenta anche così.
Se non si riprenta evidentemente quando il monitor va in standby o si spegne non si riallaccia bene alla vga. Non mi preoccuperei troppo.

Beseitfia
02-03-2024, 16:29
Dalle opzioni risparmio energia imposta disattivazione schermo su mai, e vedi se il problema si ripresenta anche così.
Se non si riprenta evidentemente quando il monitor va in standby o si spegne non si riallaccia bene alla vga. Non mi preoccuperei troppo.

In realta' era gia' impostato su mai, infatti avrei dovuto avere schermata desktop fissa ma ho trovato per due volte schermo nero lampeggiante

marbasso
02-03-2024, 17:12
In realta' era gia' impostato su mai, infatti avrei dovuto avere schermata desktop fissa ma ho trovato per due volte schermo nero lampeggiante

A ecco, il monitor ha qualche timer di spegnimento?
Prova un' altro monitor o tv

Beseitfia
03-03-2024, 07:47
A ecco, il monitor ha qualche timer di spegnimento?
Prova un' altro monitor o tv

ho notato che avevo il deep sleep DP e HDMI attivo sul monitor, ora l'ho disattivato. Però strano con la rtx 3080 non lo faceva

Ripper89
03-03-2024, 11:45
DOMANDA RIVOLTA A TUTTI

Ho effettuato qualche test per confrontare I Frame Gen AMD ed Nvidia su Robocop.

Partiamo con qualche numero secco, gioco maxato e 4k, scena fissa:
- NO DLSS 84 FPS Latenza 20 ms
- NO DLSS 84 fps Reflex ON 12 ms
- DLAA + FG Nvidia 120 fps Reflex On Latenza 18 ms
- DLSS Quality + FG Nvidia 155 fps Reflex On Latenza 13 ms
- FSR Quality + FG AMD 150 fps Reflex OFF Latenza 9-15 ms.
Reflex ON stessi risultati

Problemi enormi di frametime per il FG AMD che lo rendono di fatto inutilizzabile. Terribile la fluidità grafici di fps e frame time pessimi.
Prima foto FG Nvidia. Anche con vsync attivo da pannello il FG AMD resta inutilizzabile per via delle forti oscillazioni.

Prima immagine amd

https://i.postimg.cc/FdNcZshz/Immagine-Whats-App-2024-03-02-ore-15-24-26-964fb6a1.jpg (https://postimg.cc/FdNcZshz)

Nvidia

https://i.postimg.cc/vxmVJqgd/Immagine-Whats-App-2024-03-02-ore-15-24-26-c36fe0ce.jpg (https://postimg.cc/vxmVJqgd)

Direi che c'è poco da dire

Ciao, forse ciò che sto per chiederti non centra molto ma ....

Potrei sapere se in un contesto con Vsync attivo, se attivo il FG di Nvidia quest'ultimo provvederà a generare solo i frames mancanti rispetto al cap del Vsync oppure i frames generati rappresenteranno sempre la metà del totale ?

Faccio un esempio
PREMESSA : In un gioco voglio giocare a 120fps con Vsync.
Con FG Disattivato il gioco gira a 120fps ma occasionalmente cali a 90.
DOMANDA : Se attivo il FG in questi casi si limiterà a costruire solo i 30 fotogrammi mancanti ( ossia 90 reali + 30 generati ) oppure quelli generati rappresenteranno il 50% del totale ?

marbasso
03-03-2024, 11:52
ho notato che avevo il deep sleep DP e HDMI attivo sul monitor, ora l'ho disattivato. Però strano con la rtx 3080 non lo faceva

Aggiornaci se tutto va bene.

nagashadow
03-03-2024, 12:07
Ragazzi un info…stavo valutando l acquisto di una rtx 4090 rog su subito….ma come gestisce Asus la garanzia? Puoi fare richiesta di RMA direttamente a loro?

lordsnk
03-03-2024, 12:35
Ragazzi un info…stavo valutando l acquisto di una rtx 4090 rog su subito….ma come gestisce Asus la garanzia? Puoi fare richiesta di RMA direttamente a loro?

Personalmente non farei mai un acquisto del genere su una piattaforma come Subito.
La 4090 è "delicata".
Se non è stata installata correttamente potrebbe avere il connettore dell'alimentazione danneggiato oppure il pcb rotto.
La Strix è la scheda più soggetta alla rottura del PCB se non viene installata correttamente.

Alekos Panagulis
03-03-2024, 18:50
Ragazzi un info…stavo valutando l acquisto di una rtx 4090 rog su subito….ma come gestisce Asus la garanzia? Puoi fare richiesta di RMA direttamente a loro?Personalmente non farei mai un acquisto del genere su una piattaforma come Subito.
La 4090 è "delicata".
Se non è stata installata correttamente potrebbe avere il connettore dell'alimentazione danneggiato oppure il pcb rotto.
La Strix è la scheda più soggetta alla rottura del PCB se non viene installata correttamente.Asus è l'unico produttore ormai (ahimè, dopo la morte di EVGA) a offrire assistenza e RMA direttamente all'utente finale, una cosa encomiabile.
Subito.it è ormai sicuro da quando c'è la protezione acquisti, più sicuro un di qualsiasi mercatino. Ci vendo e ci compro di tutto.

Inviato dal mio SM-S911B utilizzando Tapatalk

nagashadow
04-03-2024, 05:37
Ragazzo nessuno vuole vendere la sua 4090 a prezzi decenti???��

Comunque avevate ragione, è già il secondo che becco che non usa le staffe di supporto

Salfox
04-03-2024, 07:22
Ragazzo nessuno vuole vendere la sua 4090 a prezzi decenti???��


se aspetti una decina di mesi ti vendo la mia :D :D :D :D .
Comunque, a parte gli scherzi, con le quotazioni attuali dell'usato 4090 ti consiglio di fare un piccolo sforzo in più e prendere una nuova possibilmente con garanzia lunga.
Per quanto riguarda poi l'usato, se la compri che è ancora in garanzia, perchè ti fai tante pippe mentali sull'uso della staffa di supporto?

amon.akira
04-03-2024, 08:26
Faccio un esempio
PREMESSA : In un gioco voglio giocare a 120fps con Vsync.
Con FG Disattivato il gioco gira a 120fps ma occasionalmente cali a 90.
DOMANDA : Se attivo il FG in questi casi si limiterà a costruire solo i 30 fotogrammi mancanti ( ossia 90 reali + 30 generati ) oppure quelli generati rappresenteranno il 50% del totale ?

deve seguire la pipeline di rendering obbligatoriamente, non è adattivo

nagashadow
04-03-2024, 08:51
se aspetti una decina di mesi ti vendo la mia :D :D :D :D .
Comunque, a parte gli scherzi, con le quotazioni attuali dell'usato 4090 ti consiglio di fare un piccolo sforzo in più e prendere una nuova possibilmente con garanzia lunga.
Per quanto riguarda poi l'usato, se la compri che è ancora in garanzia, perchè ti fai tante pippe mentali sull'uso della staffa di supporto?

Perché nessuno gestisce la garanzia direttamente…anche Asus i primi due dal rivenditore e l ultimo da loro

CtrlAltSdeng!
04-03-2024, 09:22
Ho effettuato qualche test per confrontare I Frame Gen AMD ed Nvidia su Robocop.

Partiamo con qualche numero secco, gioco maxato e 4k, scena fissa:
- NO DLSS 84 FPS Latenza 20 ms
- NO DLSS 84 fps Reflex ON 12 ms
- DLAA + FG Nvidia 120 fps Reflex On Latenza 18 ms
- DLSS Quality + FG Nvidia 155 fps Reflex On Latenza 13 ms
- FSR Quality + FG AMD 150 fps Reflex OFF Latenza 9-15 ms.
Reflex ON stessi risultati

Problemi enormi di frametime per il FG AMD che lo rendono di fatto inutilizzabile. Terribile la fluidità grafici di fps e frame time pessimi.
Prima foto FG Nvidia. Anche con vsync attivo da pannello il FG AMD resta inutilizzabile per via delle forti oscillazioni.

Prima immagine amd

https://i.postimg.cc/FdNcZshz/Immagine-Whats-App-2024-03-02-ore-15-24-26-964fb6a1.jpg (https://postimg.cc/FdNcZshz)

Nvidia

https://i.postimg.cc/vxmVJqgd/Immagine-Whats-App-2024-03-02-ore-15-24-26-c36fe0ce.jpg (https://postimg.cc/vxmVJqgd)

Direi che c'è poco da dire

Nel senso che su nvidia 4xxx è meglio usare le proprie ottimizzazioni invece che quelle del concorrente? Abbastanza prevedibile....al netto di impostazioni sbagliate lato tuo (perchè il vsync da pannello driver?) e di problemi del gioco in sè a gestire l'ibrido (perchè se ho dlss3 dovrei attivare fg amd, il contrario non è attuabile quindi che comparazione sarebbe?)

Dovresti provare robocop su una XTX e comparare i risultati fsr3 + fg amd con dlss3 + fg nvidia....altrimenti che cosa vorresti dimostrare scusa? :mbe:

fraussantin
04-03-2024, 10:47
Nel senso che su nvidia 4xxx è meglio usare le proprie ottimizzazioni invece che quelle del concorrente? Abbastanza prevedibile....al netto di impostazioni sbagliate lato tuo (perchè il vsync da pannello driver?) e di problemi del gioco in sè a gestire l'ibrido (perchè se ho dlss3 dovrei attivare fg amd, il contrario non è attuabile quindi che comparazione sarebbe?)

Dovresti provare robocop su una XTX e comparare i risultati fsr3 + fg amd con dlss3 + fg nvidia....altrimenti che cosa vorresti dimostrare scusa? :mbe:

su nvidia il vsync va messo da pannello del driver sennò può capitare che il gsync non agganci.

per un confronto alla pari effettivamente servirebbero 2 schede e vedere se fsr su nvidia funziona semplicemente male.


detto questo mi sto sfasciando la testa su ghostrunner 2 , il gioco va una spada eccetto che se attivo le ombre ( che siano rt? ) che impattano quasi esclusivamente sul processore,minimo o massimo non cambia di un fps . identico . , e oltretutto FG non mi riesce di farlo funzionare o che lo attivi o lo disattivi da gioco o da .ini non cambia di un fps.



ora in molte aree faccio com 150 fps anche con ombre al massimo , ma il gioco non è cmq fluido .

che sia perchè il gioco è sponsorizzato intel o mi sono perso qualcosa io?

Cutter90
04-03-2024, 10:50
Nel senso che su nvidia 4xxx è meglio usare le proprie ottimizzazioni invece che quelle del concorrente? Abbastanza prevedibile....al netto di impostazioni sbagliate lato tuo (perchè il vsync da pannello driver?) e di problemi del gioco in sè a gestire l'ibrido (perchè se ho dlss3 dovrei attivare fg amd, il contrario non è attuabile quindi che comparazione sarebbe?)

Dovresti provare robocop su una XTX e comparare i risultati fsr3 + fg amd con dlss3 + fg nvidia....altrimenti che cosa vorresti dimostrare scusa? :mbe:

Vsync da pannello nvidia perchè è normale usarlo così, visto che con il FG il vsync ingame non funziona su nessun gioco (ma ho fatto anche i test senza vsync)

Ritengo che nel tuo ragionamento ci sia un errore di fondo. Il FG amd gira su qualsiasi vga in uagual modo perchè usa unità di calcolo generiche che tutte le vga moderne possiedono. Su amd si avrebbero i medesimi risultati poichè non ha hardware dedicato a fare ciò.
Quindi la comparazione ha perfettamente senso ed è DECISIVA per quanto riguarda lo stato attuale dei due FRame Gen.
Ora, ovviamente il test va ripetuto in altri giochi. Ma Robocop restituisce un FG amd inutilizzabile per colpa del pessimo frame time.
Ma non è che su nvidia è così e su amd no. FSR3 non gira meglio su mad rispetto ad nvidia. Girano uguali da quello che so io.
Fino ad ora i due FG non sono paragonabili come qualità e fluidità. Questo perchè non vorrei che la gente poi provi il FG amd pensando che anche quello nvidia funzioni uguale. Come per il dlss, l'hardware su cui gira dedicato fa la differenza.
Se non è così, passami qualche fonte che l'ha testato. :)

marbasso
04-03-2024, 19:22
https://i.postimg.cc/3RWPPb0D/Screenshot-32-1.png



Se no che flashi a fare :O

Cutter90
05-03-2024, 18:05
Ho fatto altri test per comparare i FG

Effettuati test su Remnant 2 e cod.
Remnant 2:
-Il FG Nvidia semplicmente non funziona. Lo attivi e anche se riavvii il gioco non aumenta 1 fps. Quindi purtroppo la comparazione non si può fare
- IL FG amd funziona, ma nonstante il grafico del frame time sembri molto più "liscio" rispetto a robocop, la sensazione muvendo la camera è strana, come se in realtà la fluidità non fosse quella che gli fps dovrebbero mostrare. Poi ho chiuso e riaperto il gioco 2 volte. Alla prima volta sembrava fluido corretto. nella seconda era tornato strano. Boh

Cod Mw3 ha una funione molto interessante, ossia si possono attivare entrambi i FG sopra FSR, quindi alternarli è facile
- FG Nvidia: funziona perfettamente, i 116 fps che vedo a schermo sono 116 fps veri, zero problemi di Frame time e latenza su 5 (latenza gpu misurata da cod)
- FG AMD: stessa cosa di Remnant. Il grafico del frame time va bene, ma la sensazione di fluidità non è quella da 116 fps. Anzi 120, visto che nonostante risulti attivo da menù reflex evidentemente me lo disattiva, portando la latenza su parecchio a 11.

Insomma, anche in questi due giochi il FG amd non risulta buono. Utilizzabile rispetto a robocop, ma con troppi compromessi rispetto al FG Nvidia.

marbasso
05-03-2024, 19:43
Nuovi driver 551.76 WHQL

MorrisADsl
05-03-2024, 22:36
Nuovi driver 551.76 WHQLInstallati. Domani li provo con i giochi. In 3d mark è pressoché uguale all'ultimo che ho usato .46 beta.

ROBHANAMICI
06-03-2024, 08:34
che stress questi driver che escono ogni settimana :asd: :asd:

nagashadow
06-03-2024, 10:24
Ragazzi ma ha senso secondo voi prendere una 4090 ora a 1800 euro?

Cutter90
06-03-2024, 10:52
Ragazzi ma ha senso secondo voi prendere una 4090 ora a 1800 euro?

Dipende cosa vorresti fare. In linea di massima prenderla secca ora ha poco senso per me.

marbasso
06-03-2024, 11:13
Ragazzi ma ha senso secondo voi prendere una 4090 ora a 1800 euro?

Se salti la serie 5000, e puoi benissimo farlo con la 4090, ha tranquillamente senso.

razor820
06-03-2024, 11:20
Ragazzi ma ha senso secondo voi prendere una 4090 ora a 1800 euro?


Se hai la liquidità prendila ad occhi chiusi. Calcola che una 4080s costa 600 euro meno. E penso che il boost di prestazioni giustifichi il prezzo.

nagashadow
06-03-2024, 11:34
Ho già una 4080…. È scimmia pura :muro: :muro:

razor820
06-03-2024, 11:40
Ho già una 4080…. È scimmia pura :muro: :muro:


In questo senso non so se L esborso ne vale la pena. Tra la vendita della tua usata e L acquisto di quella nuova dovresti aggiungere circa 900 euro come minimo