PDA

View Full Version : [Thread Ufficiale] nVidia GB202-GB203 (RTX 5090 - 5080 - 5070TI)


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29

Dono89
09-10-2025, 22:17
che poi visti i miseri guadagni in fps non capisco quale sia il senso del overclock.


Ma c'è qualcosa che non va, è palese. Una 5090 oc dalla stock non può dare solo il 5% con un core clock del 10% in più. A meno che non sia un limite di architettura e lì c'è poco da fare

Cutter90
09-10-2025, 23:39
Ma come, a tua detta non servivano 2v ed oltre 600w per fare 3100 MHz sulla 5090 :confused:
Madoo era per dire ..... :)
Ma c'è qualcosa che non va, è palese. Una 5090 oc dalla stock non può dare solo il 5% con un core clock del 10% in più. A meno che non sia un limite di architettura e lì c'è poco da fare
Tra 2850 e 3100 c'è l 8 %. E tra 2900 e 3100 c'è il 7%.
Domani tabsto Cronos nelle stesse condizioni se riesco.
Le memorie non le posso toccare ovviamente.Se no grazie che il guadagno c'è.Ma quello si può fare anche a stock e in oc oltre che in UV. Non ritengo abbia senso inserle. Come detto +3000 sono 2-3 fps gratis.
Era Wuchang cmq :)
Ma dai test che ho fatto anche in passato siamo sempre qui. 2-5 fps. Con un consumo nettamente superiore e 4-5 gradi in più.
La mia cmq a stock è abbastanza tirata. Magari c'entra

Dono89
10-10-2025, 00:15
Ha senso eccome, si parla di oc sul core quindi che fai un uv o che fai oc, le mem sempre a +3000 le tieni.

Si hai una scheda "sfigata" che con le 5000 vuol dire alto voltaggio e alte frequenze

Gigibian
10-10-2025, 00:34
Qualcuno ha info sulla 5080 msi inspire 3X ? Mi dovrebbe arrivare domenica, so che é una delle 5080 più scrause ma per il prezzo a cui l'ho pagata con garanzia regalo Amazon prime va benone. (950)

Non riesco a trovare review di nessun tipo...

Dono89
10-10-2025, 09:52
Io la ho e ti posso dire che a pari frequenze e pari voltaggio, ha le stesse identiche temperature della zotac solid core (no la sff, non la solid liscia, quella a metà)

C'è però da dire che la msi è con metallo liquido e la zotac no (non ancora...), ma la differenza della msi rispetto prima che avesse il metallo liquido non è così marcata.

Il pcb è un 15+3 fasi. Direi ottimo

Gigibian
10-10-2025, 09:56
Io la ho e ti posso dire che a pari frequenze e pari voltaggio, ha le stesse identiche temperature della zotac solid core (no la sff, non la solid liscia, quella a metà)

C'è però da dire che la msi è con metallo liquido e la zotac no (non ancora...), ma la differenza della msi rispetto prima che avesse il metallo liquido non è così marcata.

Il pcb è un 15+3 fasi. Direi ottimo

Quindi non è terribile come scheda ? Non è un phon dal punto di vista del rumore e temp?

Dono89
10-10-2025, 10:00
Quindi non è terribile come scheda ? Non è un phon dal punto di vista del rumore e temp?

Ma va, assolutamente no.

Anzi, la zotac per quanto mi riguarda è peggio e il dissipatore è più performante quello dell'msi.

Non aspettarti un suprim eh, ma non è affatto male (o quantomeno allineata alle varie schede da 2.5 slot

Gigibian
10-10-2025, 11:46
Ma va, assolutamente no.

Anzi, la zotac per quanto mi riguarda è peggio e il dissipatore è più performante quello dell'msi.

Non aspettarti un suprim eh, ma non è affatto male (o quantomeno allineata alle varie schede da 2.5 slot

Benissimo! Allora sicuramente lo vale i +100€ di differenza sulla mia 5070 ti :)

rintintin78
10-10-2025, 13:01
Madoo era per dire ..... :)

Ma dai test che ho fatto anche in passato siamo sempre qui. 2-5 fps. Con un consumo nettamente superiore e 4-5 gradi in più.
La mia cmq a stock è abbastanza tirata. Magari c'entra

Anche a me, che ho la tua stessa scheda ballano circa 5 FPS con UV.
Quindi a mio modesto parere, quando si fanno molti FPS è assolutamente irrilevante.
Visto che si parla di 5090, con DLSS e MFG si stà sempre ad un numero di FPS notevoli, fare 235 o 240 non fa differenza, ma temeprature e watt sono nettamente inferiori

Dono89
10-10-2025, 13:09
Anche a me, che ho la tua stessa scheda ballano circa 5 FPS con UV.
Quindi a mio modesto parere, quando si fanno molti FPS è assolutamente irrilevante.
Visto che si parla di 5090, con DLSS e MFG si stà sempre ad un numero di FPS notevoli, fare 235 o 240 non fa differenza, ma temeprature e watt sono nettamente inferiori

Togli dall'equazione FG, tu credi che con un titolo che fa 120 fps l'oc te ne fa fare 125? Ma siamo seri? Il 4% con il 12% di clock?

Nei test di cutter aveva una baseline di partenza più bassa quindi le % sono diverse.

Tenetele a 2900, ci mancherebbe, ma se esce che avete anche le suprim o astral vengo a casa e vi do fuoco al pc (si scherza eh :D )

dAbOTZ
10-10-2025, 14:10
Scusate né.. ma se fate i bench con qualsiasi cosa UE5-based non avrete mai risultati attendibili, soprattutto Nanite e Lumen non scalano linearmente con la GPU.

Cutter90
10-10-2025, 14:35
Scusate né.. ma se fate i bench con qualsiasi cosa UE5-based non avrete mai risultati attendibili, soprattutto Nanite e Lumen non scalano linearmente con la GPU.

Eh, però che colpa ne abbiamo se fanno tanti giochi in UE5? Mica devo fare i test "che convengono". Bisogna fare i test con i giochi a cui si gioca. Vedo cmq se ho qualcosa installato non UE5, credo ancora Alan Wake 2...

Cutter90
10-10-2025, 14:41
Togli dall'equazione FG, tu credi che con un titolo che fa 120 fps l'oc te ne fa fare 125? Ma siamo seri? Il 4% con il 12% di clock?

Nei test di cutter aveva una baseline di partenza più bassa quindi le % sono diverse.

Tenetele a 2900, ci mancherebbe, ma se esce che avete anche le suprim o astral vengo a casa e vi do fuoco al pc (si scherza eh :D )

Però non capisco. In che senso una "baseline più bassa?" Oggi magari faccio anche AW2

Dono89
10-10-2025, 15:21
Però non capisco. In che senso una "baseline più bassa?" Oggi magari faccio anche AW2


Cha fare 4 fps in più su 40 non è come farne 4 su 120.

Dopo vi metto avowed e callisto tra 2800 e 3250 (mem sempre +3000 per evitare colli e isolare il clock del core)

Cutter90
10-10-2025, 15:22
Cha fare 4 fps in più su 40 non è come farne 4 su 120.

Dopo vi metto avowed e callisto tra 2800 e 3250 (mem sempre +3000 per evitare colli e isolare il clock del core)

La 5070 ti arriva a 3250 reali ?
Sono giochi un po' datati però ok. però io farei sempre un confronto 2900 vs 3100. perchè se no non è una cosa direttamente paragonabile ai miei test

Dono89
10-10-2025, 15:32
La 5070 ti arriva a 3250 reali ?
Sono giochi un po' datati però ok. però io farei sempre un confronto 2900 vs 3100. perchè se no non è una cosa direttamente paragonabile ai miei test

Ho la 5080, ma si, 3255 in game stabile con rt/dlss e tutto, con 3270 e tensor+rt crasha dopo un po'.

Sono in parte d'accordo, 3100 non sono un vero oc su una 70ti/80, la 5090 gioca un altro campionato dato quel chip e quindi a 3200 non ci arriva e anche se ci arrivasse vorrebbe 800w quindi taglia.
Passare da 2900 (che non è proprio clock di default, sta sulle 2800 solitamente) a 3100 è un oc del 7%, la metà esatta rispetto il il 15% che fanno tutti sulle 5000 (5090 a parte), capisco però cosa intendi.

Il punto è anche che su una 5090 l'oc oltre 3000 è troppo dispendioso, mentre sugli altri chip arrivare a oltre 3200 aiuta.
Cmq posso fare entrambi, metto default (2800), 2900, 3100, 3250. Ci vuole mezzo secondo in più.


Se volete estendo a chronos e echoes. Non chiedetemi altri titoli però che sono senza fibra :D

Cutter90
10-10-2025, 15:48
Ho la 5080, ma si, 3255 in game stabile con rt/dlss e tutto, con 3270 e tensor+rt crasha dopo un po'.

Sono in parte d'accordo, 3100 non sono un vero oc su una 70ti/80, la 5090 gioca un altro campionato dato quel chip e quindi a 3200 non ci arriva e anche se ci arrivasse vorrebbe 800w quindi taglia.
Passare da 2900 (che non è proprio clock di default, sta sulle 2800 solitamente) a 3100 è un oc del 7%, la metà esatta rispetto il il 15% che fanno tutti sulle 5000 (5090 a parte)

Però la partenza aera che fare un undervolt fa perdere prestazioni, secondo te, rispetto ad un OC "ignorante" senza toccare i volt.
La mia a stock fa 2850 circa. Magari possiamo fare 2850 vs 3100. Però io in undervolt faccio anche 2900 mhz, come da confronto.
Se invece il confronto che vuoi fare è stock vs oc il discorso è moooolto diverso. Perchè li dipende da quanto esce la scheda stock. E li cambia tutto e perdiamo dei parametri fissi per fare il test.

Però si era partiti da un utente che girava a 3100 con 1.075 v. Ossia OC da splider e basta. nei miei test dimostro che non ha senso giocare in OC perchè la perdita di prestazioni rispetto a stock e un undervolt è minima, trascurabile. Mentre la differenza di consumi e calore è tangibile.
Secondo me dobbiamo rimanere "qui" perchè altrimenti è troppo aleatorio il discorso.
Prova a rifare i miei test magari. Gioco senza dlss, range di fps 60-70 e poi magari 90-120. Uno a 3100 e uno a 2850. Con tanto di fps, consumi e temp come ho fatto io. Solo allora potremmo davvero tirare una somma "valida" secondo me.

Dono89
10-10-2025, 15:55
Però la partenza aera che fare un undervolt fa perdere prestazioni, secondo te, rispetto ad un OC "ignorante" senza toccare i volt.
La mia a stock fa 2850 circa. Magari possiamo fare 2850 vs 3100. Però io in undervolt faccio anche 2900 mhz, come da confronto.
Se invece il confronto che vuoi fare è stock vs oc il discorso è moooolto diverso. Perchè li dipende da quanto esce la scheda stock. E li cambia tutto e perdiamo dei parametri fissi per fare il test.

Però si era partiti da un utente che girava a 3100 con 1.075 v. Ossia OC da splider e basta. nei miei test dimostro che non ha senso giocare in OC perchè la perdita di prestazioni rispetto a stock e un undervolt è minima, trascurabile. Mentre la differenza di consumi e calore è tangibile.
Secondo me dobbiamo rimanere "qui" perchè altrimenti è troppo aleatorio il discorso.
Prova a rifare i miei test magari. Gioco senza dlss, range di fps 60-70 e poi magari 90-120. Uno a 3100 e uno a 2850. Con tanto di fps, consumi e temp come ho fatto io. Solo allora potremmo davvero tirare una somma "valida" secondo me.

Il discorso era se ha senso o no fare oc in primis su una 5090.

Per la mia definizione di oc c'è raggiungere le massime prestazioni senza tagli (non in bench, dove nomad ti taglia anche con 200MHz in meno ovviamente).

Se la 5090 oltre 3000 ti taglia e stock la hai a 2900 è ovvio che non ti cambia, stai dando il 3% in più di clock, che deve fare.

Se però consideriamo una scheda a 2800 e la porti a 3200 la differenza c'è.

L'uv è un'altra cosa ancora, dove a mio avviso sul guadagno pratico è zero, stesse perf con 40w in meno su quasi 500w consumati di vga.


Ad ogni modo il bello di avere queste schede è anche compararle. Dimmi che test vuoi che faccia e lo faccio, ma purtroppo ho un parco titoli ridotto e 100gb di wukong e cyberpunk non posso riscaricarli

Cutter90
10-10-2025, 15:59
Il discorso era se ha senso o no fare oc in primis su una 5090.

Per la mia definizione di oc c'è raggiungere le massime prestazioni senza tagli (non in bench, dove nomad ti taglia anche con 200MHz in meno ovviamente).

Se la 5090 oltre 3000 ti taglia e stock la hai a 2900 è ovvio che non ti cambia, stai dando il 3% in più di clock, che deve fare.

Se però consideriamo una scheda a 2800 e la porti a 3200 la differenza c'è.

L'uv è un'altra cosa ancora, dove a mio avviso sul guadagno pratico è zero, stesse perf con 40w in meno su quasi 500w consumati di vga.


Ad ogni modo il bello di avere queste schede è anche compararle. Dimmi che test vuoi che faccia e lo faccio, ma purtroppo ho un parco titoli ridotto e 100gb di wukong e cyberpunk non posso riscaricarli

Cronos sarebbe perfetto.
Ma come fa ad essere guadagno zero l undervolt quando ho dimostrato perf superiori allo stock, consumi nettamente inferiori e temperature più basse? consumo 140 watt in meno, non 40...... e ho fatto un UV a raglio. Secondo me non perdendo perf posso ancora tirare con i watt.
Inoltre io ho provato 2850 vs 3100. ossia una forbice sulla carta "ampia" ma che all'atto pratico porta miglioramenti di perf trascurabili.

Dono89
10-10-2025, 16:04
Cronos sarebbe perfetto.
Ma come fa ad essere guadagno zero l undervolt quando ho dimostrato perf superiori allo stock, consumi nettamente inferiori e temperature più basse? consumo 140 watt in meno, non 40...... e ho fatto un UV a raglio. Secondo me non perdendo perf posso ancora tirare con i watt.
Inoltre io ho provato 2850 vs 3100. ossia una forbice sulla carta "ampia" ma che all'atto pratico porta miglioramenti di perf trascurabili.

Che il vantaggio sia trascurabile ni. Hai dato il 9% di clock ed hai ottenuto il 5%. Non stravolge ovviamente ma perchè buttarlo.

Hai provato anche con mem a 3000 se hai sempre il 5%?

PS: ti sei fermato a 3200 con 1.05V, ti crasha se vai a tipo 3150 o 3200?

Cutter90
10-10-2025, 16:08
Che il vantaggio sia trascurabile ni. Hai dato il 9% di clock ed hai ottenuto il 5%. Non stravolge ovviamente ma perchè buttarlo.

Hai provato anche con mem a 3000 se hai sempre il 5%?

PS: ti sei fermato a 3200 con 1.05V, ti crasha se vai a tipo 3150 o 3200?

Lo butto perchè 2 fps a fronte di 140 watt in più e 4 gradi in più non sono sensati, secondo me

Le memorie se gli do 3000 a stock e uv o gliele do in oc normale sempre quell'incremento c'è

SUl PS non sono arrivato a 3200 con oc, mi ero fermato a 3100. Posso provare :)

Dono89
10-10-2025, 16:21
Lo butto perchè 2 fps a fronte di 140 watt in più e 4 gradi in più non sono sensati, secondo me

Le memorie se gli do 3000 a stock e uv o gliele do in oc normale sempre quell'incremento c'è

SUl PS non sono arrivato a 3200 con oc, mi ero fermato a 3100. Posso provare :)

Hai già provato ed è effettivamente così?

Questi i risultati con mem stock e +3000 & Voltaggio 1,07V.

2K no vsync, DLSS Q

Avowed
2800 mem stock - 122 155w
2800 - 124 270w
2900 - 125 275w
3100 - 130 277w
3255 - 135 285w
3255 mem stock - 130 280w


Callisto
2800 mem stock - 123 292w
2800 - 126 300w
2900 - 129 305w
3100 - 134 313w
3255 - 137 324w
3255 mem stock - 132 310w


Come vedi cambia avere le mem occate, "supportano" il core


+9% sia avowed che callisto

Cutter90
10-10-2025, 16:45
Hai già provato ed è effettivamente così?

Questi i risultati con mem stock e +3000 & Voltaggio 1,07V.

2K no vsync, DLSS Q

Avowed
2800 mem stock - 122 155w
2800 - 124 270w
2900 - 125 275w
3100 - 130 277w
3255 - 135 285w
3255 mem stock - 130 280w


Callisto
2800 mem stock - 123 292w
2800 - 126 300w
2900 - 129 305w
3100 - 134 313w
3255 - 137 324w
3255 mem stock - 132 310w


Come vedi cambia avere le mem occate, "supportano" il core


+9% sia avowed che callisto

Non capisco i tuoi dati però. Dove hai le memorie a + 3000? Stai dicendo che se dai +3000 a stock hai un aumento e se le dai con OC hai un altro incremento? Perchè mai dovrebbe essere così? le memorie non sono indipendenti dal core? Cio se fanno guadagnare 2 fps a stock, non fanno guadagnare 2 fps anche con OC e frequenze del core più alte?
Ma poi a stock non hai fatto il test? Hai fatto Undervolt oppure hai fatto oc ignorante con gli slider?
Non credo proprio che guadagni 11 fps con 15 watt in più.....Se però hai inserito anche le memorie e a stock no, grazie che guadagni fps.....
PS: ma una 5080 tira così pochi watt?

Dono89
10-10-2025, 16:56
Non capisco i tuoi dati però. Dove hai le memorie a + 3000? Stai dicendo che se dai +3000 a stock hai un aumento e se le dai con OC hai un altro incremento? Perchè mai dovrebbe essere così? le memorie non sono indipendenti dal core? Cio se fanno guadagnare 2 fps a stock, non fanno guadagnare 2 fps anche con OC e frequenze del core più alte?
Ma poi a stock non hai fatto il test? Hai fatto Undervolt oppure hai fatto oc ignorante con gli slider?
Non credo proprio che guadagni 11 fps con 15 watt in più.....Se però hai inserito anche le memorie e a stock no, grazie che guadagni fps.....
PS: ma una 5080 tira così pochi watt?

Aspetta :)

dove c'è scritto mem stock sono memorie a 0, ovvero 30.000, dove non c'è scritto nulla sono a +3000, ovvero 36.000

Succedeva (per altri motivi però) anche sulla 4090, ricordi? Aumentare il core dava meno incremento in valore assoluto rispetto l'aumento delle mem.

Stock sarebbe 2800 mem stock

gli uplift di core, essendo tutti a 1,07V sono a slider.

Sono a 1,07V che è un voltaggio medio-alto, aumentare il clock cambia ma non tantissimo.

Come scritto sono in DLSS Q 2K, quindi di fatto sono meno che in fullhd, ci sta che consumi così poco.

Avessi fatto in 4K puro probabilmente il guadagno in oc sarebbe stato più marcato (e anche i consumi)

Considera che la 5080 consuma mediamente la metà della 5090, ha il bus che è dimezzato e così anche i cuda, è un chip che è la metà

Cutter90
10-10-2025, 17:08
Aspetta :)

dove c'è scritto mem stock sono memorie a 0, ovvero 30.000, dove non c'è scritto nulla sono a +3000, ovvero 36.000

Ok, però allora il confronto va fatto o tutto a stock o tutto a +3000. perchè se a stock non aumenti le ram e in oc si, grazie che hai un guadagno. ma quel guadagno lo avresti anche a stock con l'aumento delle ram

Succedeva (per altri motivi però) anche sulla 4090, ricordi? Aumentare il core dava meno incremento in valore assoluto rispetto l'aumento delle mem.

Si si lo ricordo

Stock sarebbe 2800 mem stock

gli uplift di core, essendo tutti a 1,07V sono a slider.

Sono a 1,07V che è un voltaggio medio-alto, aumentare il clock cambia ma non tantissimo.
Eh però così è un discorso diverso. Se non ottimizzi la curva è ovvio che hai solo incrementi di qualche fps e zero benefici. Lundervolt è un discorso molto diverso

Come scritto sono in DLSS Q 2K, quindi di fatto sono meno che in fullhd, ci sta che consumi così poco.

Avessi fatto in 4K puro probabilmente il guadagno in oc sarebbe stato più marcato (e anche i consumi)
Considera che la 5080 consuma mediamente la metà della 5090, ha il bus che è dimezzato e così anche i cuda, è un chip che è la metà

Oddio, la 5080 che consuma la metà non credo proprio. Meno, sicuro. Ma una 5080 non fa 450 watt di massimi? vs i 600 della 5090? Poi appunto, con Undervolt la 5090 consumo molto meno dello stock. E ha un guadagno di waat che non credo sia ripetibile su una 5080 in proporzione. Il che ci sta

Dono89
10-10-2025, 17:21
Oddio, la 5080 che consuma la metà non credo proprio. Meno, sicuro. Ma una 5080 non fa 450 watt di massimi? vs i 600 della 5090? Poi appunto, con Undervolt la 5090 consumo molto meno dello stock. E ha un guadagno di waat che non credo sia ripetibile su una 5080 in proporzione. Il che ci sta

Si e no.

La 5080 la porti a 450w solo se davvero vuoi ed in pochissimi casi. 3dmark (nomad in primis) o CP con RT, PT, DLAA e tutto. Permettimi di dire che la porti a 450w più per esercizio che altro.

La 5090 invece in game i 500w te li fa. Poi ovvio se fai downvolt perdi consumo com'è normale che sia, ma perchè la corrente in gioco è tanta.

Il punto principale è che il bios a 450w (che ho) della 5080 è per sbloccarla e "liberarla", i 600w invece alla 5090 la strozzano. Per farla facile, il bios da 450w sta alla 5080 come uno da 800/900w sta alla 5090



I test li ho fatti SIA con mem stock che mem oc. Se ti crea confusione togli i risultati mem stock ed hai il puro contributo dell'oc del core. Non erano per ottimizzare la curva, ma per valutare l'uplift di fps dato dall'oc quindi tanto vale sparare il voltaggio e vedere di quanto salgono i frame con il clock


EDIT: Ricordiamoci cutter che tu sei in 4K, io in 2K, questo per quanto riguarda i consumi (e anche scaling) incide non poco. Ma anche se fossi stato in 4K, non avrei mai fatto 400w, magari però quei 30w in più li prendevo

BMWZ8
11-10-2025, 08:37
Ciao a tutti, sono entrato nel club con una 5090 msi Vanguard. A breve aggiornerò la firma. Vengo da una settimana micidiale durante la finestra dei resi amazon perché dovevo decidere se tenere questa o la 9070xt. Come gamer sono ormai a fine carriera per motivi di tempo e dopo molti test ho deciso di chiudere in bellezza. Ragazzi che bestia è.
Un mostro. Credo di sfruttarla al 100% anche col 9700x. Gioco su una tv sony da 75 a 120hz. Punto ai 110/120 fps. Sono dieci giorni che sto a bocca aperta, tra i bench e i giochi moddati.

Per salvaguardare il connettore portatore di handicap ho ottimizzato subito e fatto undervolt e power limit, e curva ventola più allegra. Sto sopra alle frequenze stock e consumo quei 40/50 watt in meno. Alimentatore è un be quiet straight power platinum da 1000w conforme a atx 3.1 . Il cavo flette un po' quando chiudo il case ma lo faccio scaldare prima e con le dovute osservazioni non sembra causare pieghe eccessive e per ora non voglio prendere cavi appositi fatti ad L. Ho visto che aquacomputer farà uscire un accessorio con load balancing e arresto di emergenza , forse prendo quello.


Infine, la scheda sembra andare al suo massimo (non ho stuttering, ne problemi di CPU limited, forse con un 9800x3d recupero un due % ma le seghe mentali ho imparato a non farle più) . Pur essendo il mio un sistema low cost vi assicuro che è ben ottimizzato anche come latenze ram e va che è un piacere. Riporterò i punteggi ai bench più tardi

rintintin78
11-10-2025, 09:23
Lo butto perchè 2 fps a fronte di 140 watt in più e 4 gradi in più non sono sensati, secondo me

Le memorie se gli do 3000 a stock e uv o gliele do in oc normale sempre quell'incremento c'è

SUl PS non sono arrivato a 3200 con oc, mi ero fermato a 3100. Posso provare :)

Tu a quanto la tieni su afterburner? E in game a che temperature arrivi?

rintintin78
11-10-2025, 09:57
Togli dall'equazione FG, tu credi che con un titolo che fa 120 fps l'oc te ne fa fare 125? Ma siamo seri? Il 4% con il 12% di clock?

Nei test di cutter aveva una baseline di partenza più bassa quindi le % sono diverse.

Tenetele a 2900, ci mancherebbe, ma se esce che avete anche le suprim o astral vengo a casa e vi do fuoco al pc (si scherza eh :D )

Non posso togliere l' equazione del MFG, è una tecnologia che ho acquistato che molto spesso funziona e quindi la utilizzo. Per tale motivo valuto l' UV con il MFG, perchè lo uso per giocare.

Cutter90
11-10-2025, 10:14
Tu a quanto la tieni su afterburner? E in game a che temperature arrivi?

Adesso sto tenendo il profilo 970 2900. Questo reali però. Come temp vado dai 48 ai 53 a seconda del titolo e quanto "tira" come watt

razor820
11-10-2025, 10:59
Buongiorno. Ieri notte ho visto la possibilità di prendere una 5080 liscia a 1.000 euro nuova. Secondo voi vale la pena sostituire la mia 4080s? Diciamo che a questo giro ho visto che non ne vale la pena, il boost è garantito solo con il dls4.

La serie 6 penso che che ci vorra qualche altro anno. 5090 prezzi assurdi.

Ma la mia fida 4080s FE a che prezzo dovrei venderla poi?

frafelix
11-10-2025, 11:05
...Però si era partiti da un utente che girava a 3100 con 1.075 v. Ossia OC da splider e basta...

Io non ho mai detto che faccio da slider, sono con la curva! Dicevo che visto la mia 5090 sfigata che si ferma a 3100, la stessa frequenza su una 5070ti decisamente meno complessa, mi sembrava troppo bassa

Eddie666
11-10-2025, 11:18
di seguito qualche screenshots con la mia RTX msi ventus 5090; sono il profilo @default, e poi 3 curve (una UV pesante, una UV + OC per avere le stesse prestazioni @default ma con minor consumo, l'ultimo UV + OC massimo raggiungibile senza modificare il voltaggio: questi 3 profili hanno entrambe le memorie a +2000mhz).
Il benchmark è quello di Wukong, ognuno ripetuto 2 volte, 4K settaggi massimi

DEFAULT
https://i.ibb.co/jZzF4xWf/WUKONG-DEFAULT.jpg (https://ibb.co/Tq15hnb2)

UV PESANTE + ram 2000mhz
https://i.ibb.co/0yvVFV67/WUKONG-2317-GPU-2000-MEM.jpg (https://ibb.co/5hwxnxS0)

UV + OC + ram 2000mhz (stesse prestazioni stock, ma con consumo di watt inferiore)
https://i.ibb.co/BKgMMYbt/WUKONG-2842-GPU-2000-MEM.jpg (https://ibb.co/Vpv44kRt)

MAX OC senza aumentare il voltaggio + ram 2000mhz
https://i.ibb.co/FbJ53779/WUKONG-3225-GPU-1-075v-2000-MEM.jpg (https://ibb.co/992bgYYJ)

Cutter90
11-10-2025, 15:12
Io non ho mai detto che faccio da slider, sono con la curva! Dicevo che visto la mia 5090 sfigata che si ferma a 3100, la stessa frequenza su una 5070ti decisamente meno complessa, mi sembrava troppo bassa

Ma guarda che ogni scheda ha i suoi MHz. Non è che la 5070 fa massimi 3200 allora la 5090 deve fare 3400. Non ha nulla a che fare la frequenza massima

Cutter90
11-10-2025, 15:33
di seguito qualche screenshots con la mia RTX msi ventus 5090; sono il profilo @default, e poi 3 curve (una UV pesante, una UV + OC per avere le stesse prestazioni @default ma con minor consumo, l'ultimo UV + OC massimo raggiungibile senza modificare il voltaggio: questi 3 profili hanno entrambe le memorie a +2000mhz).
Il benchmark è quello di Wukong, ognuno ripetuto 2 volte, 4K settaggi massimi

https://i.ibb.co/jZzF4xWf/WUKONG-DEFAULT.jpg (https://ibb.co/Tq15hnb2)
https://i.ibb.co/0yvVFV67/WUKONG-2317-GPU-2000-MEM.jpg (https://ibb.co/5hwxnxS0)
https://i.ibb.co/BKgMMYbt/WUKONG-2842-GPU-2000-MEM.jpg (https://ibb.co/Vpv44kRt)
https://i.ibb.co/FbJ53779/WUKONG-3225-GPU-1-075v-2000-MEM.jpg (https://ibb.co/992bgYYJ)

E infatti tutto torna. A stock la tua fa 2300 che è davvero molto bassa. Con il 3180 finale ci sono 10
Fps, dato 3 almeno sono di RAM.
La Ventus poi se under voltata guadagna tanto proprio perché di partenza è molto bassa e le temperature le butti giù facili.
Ho la 4070ti super che fa uguale

Eddie666
11-10-2025, 15:54
E infatti tutto torna. A stock la tua fa 2300 che è davvero molto bassa. Con il 3180 finale ci sono 10
Fps, dato 3 almeno sono di RAM.
La Ventus poi se under voltata guadagna tanto proprio perché di partenza è molto bassa e le temperature le butti giù facili.
Ho la 4070ti super che fa uguale

nono, aspetta; lo stock è lo screenshot con frequenza 2887mhz su gpuz; lo screenshot a 2300mhz e quello che ho definito UV "pesante"

Cutter90
11-10-2025, 16:13
nono, aspetta; lo stock è lo screenshot con frequenza 2887mhz su gpuz; lo screenshot a 2300mhz e quello che ho definito UV "pesante"

Ahhhh ecco. Infatti mi sembrava strano però.. cmq torna lo stesso rispetto ai miei risultati. Sei perfettamente in linea con me.
2300 è decisamente troppo basso anche per un UV. Li si che si perdono fps

razor820
11-10-2025, 19:03
Qualcuno sa se il sito nvidia store ultimamente ha il rischio di frodi?
Avevo provato a fare un acquisto recentemente, ma la mia banca UniCredit ha bloccato quel sito, perché è stato considerato come fraudolento.
Ora in passato ho comprato sempre con la stessa carta UniCredit.

Questa cosa mi ha allarmato.
Cosa ne pensate? Qualcuno ha avuto qualche problema simile?

parcher
11-10-2025, 19:11
Ciao a tutti, sono entrato nel club con una 5090[cut] Riporterò i punteggi ai bench più tardi Libera la potenza bruta della bestia ;)

Qualcuno sa se il sito nvidia store ultimamente ha il rischio di frodi?


Tranquillo, riprova.

Anto_Dur
11-10-2025, 20:50
Qualcuno sa se il sito nvidia store ultimamente ha il rischio di frodi?
Avevo provato a fare un acquisto recentemente, ma la mia banca UniCredit ha bloccato quel sito, perché è stato considerato come fraudolento.
Ora in passato ho comprato sempre con la stessa carta UniCredit.

Questa cosa mi ha allarmato.
Cosa ne pensate? Qualcuno ha avuto qualche problema simile?

Anche steam molti anni fa mi aveva bloccato la carta unicredit per rischio frodi ma è da un po che non capita.

razor820
11-10-2025, 22:54
Grazie a tutti.

Edit: niente nonostante abbia chiamato la banca UniCredit per sbloccarmi i pagamenti dal sito nvidia non sono riuscito a fare il pagamento tramite carta.
Alla fine ho trasferito i fondi su REVOLUT e pagato con la carta virtuale.

Ho preso la 5080 con bundle arc a 1050 euro.
Sinceramente non so se il prezzo era in offerta o meno, visto che mi dava la spunta promozione.

Se a qualcuno dovesse interessare dal sito nvidia é ancora disponibile la founder.
Avevo questo capriccio e ho fatto una follia passare dalla 4080s alla 5080.

Anto_Dur
12-10-2025, 09:00
Grazie a tutti.

Edit: niente nonostante abbia chiamato la banca UniCredit per sbloccarmi i pagamenti dal sito nvidia non sono riuscito a fare il pagamento tramite carta.
Alla fine ho trasferito i fondi su REVOLUT e pagato con la carta virtuale.

Ho preso la 5080 con bundle arc a 1050 euro.
Sinceramente non so se il prezzo era in offerta o meno, visto che mi dava la spunta promozione.

Se a qualcuno dovesse interessare dal sito nvidia é ancora disponibile la founder.
Avevo questo capriccio e ho fatto una follia passare dalla 4080s alla 5080.

Se te la sentivi hai fatto bene. Sebbene la differenza sia minima.

Jack Carver
12-10-2025, 10:03
Ho fatto un Benchmark @ Silent Hill 2 Remake @3440x1440 al Max



Default

12-10-2025, 10:00:26 SHProto-Win64-Shipping.exe benchmark completed, 3082 frames rendered in 21.469 s
Average framerate : 143.5 FPS
Minimum framerate : 131.6 FPS
Maximum framerate : 151.2 FPS


+ 385 + 2000Mhz

12-10-2025, 09:59:26 SHProto-Win64-Shipping.exe benchmark completed, 4202 frames rendered in 26.860 s
Average framerate : 156.4 FPS
Minimum framerate : 141.8 FPS
Maximum framerate : 165.2 FPS



13fps di media in + e 10fps minimi in più.



oc vs oc questa scheda stacca ancora di più rispetto al default la mia 4070Ti

Dono89
12-10-2025, 11:44
Ho tra le mani una zotac solid core che non è niente male...mi sa che finirà con il metallo liquido

https://www.3dmark.com/3dm/143376829

razor820
12-10-2025, 23:38
Qualcuno sa i tempi di spedizione delle schede nvidia tramite il sito ufficiale?

Ordinata sabato, mi è arrivata l email da nvidia marketplace dell ordine confermato.
Ma non accenna altro.

Ma poi chi si occupa della spedizione e altro?
Tempo fa c era LDLC

parcher
13-10-2025, 09:12
Qualcuno sa i tempi di spedizione delle schede nvidia tramite il sito ufficiale?

Ordinata sabato, mi è arrivata l email da nvidia marketplace dell ordine confermato.
Ma non accenna altro.

Ma poi chi si occupa della spedizione e altro?
Tempo fa c era LDLC

Si e' LDLC, 2/3 giorni arriva dalla Francia con DHL di solito..

BMWZ8
13-10-2025, 10:05
Libera la potenza bruta della bestia ;)







ecco alcuni punteggi dopo un mimino di ottimizzazione (però il profilo afterburner con cui ho benchato l'ho perso, era comunque un pò di undervolt e pl 104%, vram default, tutto molto al volo si può fare di meglio)

superposition 4k 47601
speed way 15195
steel nomad 15329
time spy extreme 19277 score grafico 26780


Alla prima installazione avevo attivato il monitoraggio dei volt su afterburner e c'erano un botto di problemi di stuttering, tant'è vero che pensavo di restituirla, poi ci ho riprovato con più calma, ho scoperto questa cosa su afterburner che appunto pare non vada fatta, ho disattivato l'overlay di Nvidia, e adesso è una spada vera. Il proflo che uso ora è la curva messa su 990mv e 3090mhz, con power limit a 95%. Avatar maxato con impostazioni unobtanium, quelle pompatissime, gira a 3000mhz con 480w circa di consumo. Sono estremamente soddisfatto e sto piuttosto tranquillo per il connettore , che con una curva ventola più aggressiva viene ben raffreddato. Tra l'altro proprio Avatar lo uso con fsr3 nativo e frame gen di amd, dato che quella di nvidia non va. Immagine cristallina e 120fps quasi costanti. Che goduria totale..non per il 9700x che lavora duro ma sarà pensionato appena esce zen 6. Qui la forza bruta non basta mai anche se devo dire che il 9700 si comporta davvero bene...anche con tutti i core al 70/80% sta sui 5,2/5,3 ghz e il suo lo fa

Jack Carver
13-10-2025, 13:47
se una 5080 si occa di brutto come la 5070ti penso davvero che possa considerarsi una scheda simile alla 4090 visto che techpowerup dava una differenza tra le due per niente alta. sarebbe ganzo da fare dei test di confronto in game tra una 5080 @ 350-400 - 2000 contro una 4090 default
considerando anche FG migliorato della serie 5000 sarebbe anche superiore in alcuni giochi senza dubbio

Dono89
13-10-2025, 15:01
se una 5080 si occa di brutto come la 5070ti penso davvero che possa considerarsi una scheda simile alla 4090 visto che techpowerup dava una differenza tra le due per niente alta. sarebbe ganzo da fare dei test di confronto in game tra una 5080 @ 350-400 - 2000 contro una 4090 default
considerando anche FG migliorato della serie 5000 sarebbe anche superiore in alcuni giochi senza dubbio

Una buona 5080 a stock in 2K o 4K DLSSQ è di circa il 10% più lenta di una 4090.
https://tpucdn.com/review/asus-geforce-rtx-5080-noctua-oc/images/relative-performance-2560-1440.png

La 5080 con oc ti prende circa un 10/15% in base al titolo, quindi direi di si, con oc, la 5080 è una 4090 stock, ma la 4090 non la clocchi assolutamente come la 5080.

Una 5080 come la mia (e come tante altre) a 3250/36000 una 4090 la pareggia in praticamente tutto

Jack Carver
13-10-2025, 15:11
Una 5080 come la mia (e come tante altre) a 3250/36000 una 4090 la pareggia in praticamente tutto

ne sono convinto e con fg è anche superiore a volte.

Sono stupito della banda passante che raggiunge le mia 70Ti con memorie a 2000 un bel Tb

Dono89
13-10-2025, 15:20
ne sono convinto e con fg è anche superiore a volte.

Sono stupito della banda passante che raggiunge le mia 70Ti con memorie a 2000 un bel Tb

Stai usando la versione errata se sei a +2000

Vai a +3000
https://www.msi.com/Landing/afterburner/graphics-cards

Jack Carver
13-10-2025, 15:23
Stai usando la versione errata se sei a +2000

Vai a +3000
https://www.msi.com/Landing/afterburner/graphics-cards

no ma volendo lo posso mettere a 3000 ma è che ancora non lo spremuta al max, infatti ho fatto vari bench con memorie a solo 500 ti puoi immaginà
poi proverò con le mem al max

Esagerao
15-10-2025, 11:45
Buongiorno
c'è qualcuno che nell'app nvidia stà ricevendo un codice di attivazione per borderlands4?

A me ha dato un codice da riscattare ma non ho capito se è il gioco o un dlc o un tool premium... Al momento ho un codice da attivare internamente al gioco, ma per scaricarlo mi manda su steam, e steam vuole il pagamento. Ovviamente se metto il codice in riscatta gioco non lo riconosce.

razor820
15-10-2025, 12:18
Buongiorno
c'è qualcuno che nell'app nvidia stà ricevendo un codice di attivazione per borderlands4?

A me ha dato un codice da riscattare ma non ho capito se è il gioco o un dlc o un tool premium... Al momento ho un codice da attivare internamente al gioco, ma per scaricarlo mi manda su steam, e steam vuole il pagamento. Ovviamente se metto il codice in riscatta gioco non lo riconosce.


Hai comprato da poco la scheda video?
Io ho ricevuto Arc raiders. Di borderlands 4 sinceramente non so niente

Esagerao
15-10-2025, 12:28
Hai comprato da poco la scheda video?
Io ho ricevuto Arc raiders. Di borderlands 4 sinceramente non so niente

Maggio, doom già riscattato era nella promozione d'acquisto ma di questo non ne sò niente

dAbOTZ
15-10-2025, 13:31
Buongiorno
c'è qualcuno che nell'app nvidia stà ricevendo un codice di attivazione per borderlands4?

A me ha dato un codice da riscattare ma non ho capito se è il gioco o un dlc o un tool premium... Al momento ho un codice da attivare internamente al gioco, ma per scaricarlo mi manda su steam, e steam vuole il pagamento. Ovviamente se metto il codice in riscatta gioco non lo riconosce.

E' solo una chiave per aprire un loot chest. Il gioco devi già averlo.

Esagerao
15-10-2025, 13:39
E' solo una chiave per aprire un loot chest. Il gioco devi già averlo.

ok come immaginavo, grazie!

razor820
15-10-2025, 14:48
Assurdo. Appena arrivata la 5080.
Aumentano i prezzi, ma la qualità diminuisce.
Una scatola anonima, di cartone, senza loghi né niente. Non c è nemmeno il gommino per proteggere il pci.
Il peso poi rispetto alla 4080s sembra dimezzato.

https://uploads.tapatalk-cdn.com/20251015/5f24f9f116e5ca599c64cafad7062399.jpg

https://uploads.tapatalk-cdn.com/20251015/dd038860daec3ca493db578177e7f630.jpg

Anche sulla 5090 FE è simile?

FrancoBit
15-10-2025, 15:23
Assurdo. Appena arrivata la 5080.
Aumentano i prezzi, ma la qualità diminuisce.
Una scatola anonima, di cartone, senza loghi né niente. Non c è nemmeno il gommino per proteggere il pci.
Il peso poi rispetto alla 4080s sembra dimezzato.

cut

Anche sulla 5090 FE è simile?

Se vai indietro a vedere i post di chi a suo tempo ha preso la 5090 founder's, questo è il package "salvaGreta" delle 5000 :ciapet:

razor820
15-10-2025, 15:33
Se vai indietro a vedere i post di chi a suo tempo ha preso la 5090 founder's, questo è il package "salvaGreta" delle 5000 :ciapet:


Ahaha mi aspettavo almeno una cartolina autografata.
Ma la garanzia? Non ho ancora ricevuto nessuna fattura via e-mail

parcher
15-10-2025, 15:33
Se vai indietro a vedere i post di chi a suo tempo ha preso la 5090 founder's, questo è il package "salvaGreta" delle 5000 :ciapet: Lo scatolo delle uova :muro: Sara' rimasto scioccato Razor al confronto con la confezione figa della sua ex 4080, me la ricordo bene l'ho avuta..

Gigibian
15-10-2025, 15:38
Mi è arrivata la 5080 inspire 3X MSI, ed ho fatto una breve comparazione con la 5070 TI PNY che avevo prima (scheda con dissi di fascia superiore):

FOTO COMPARATIVE:

https://drive.google.com/drive/folders/1jzR2zI0FR7HQnJ_GuWQTKyJpL7TqskpX?usp=sharing

VIDEO comparativi di performance (Hogwarts e Obscure 33):


https://drive.google.com/drive/folders/1431Q_anCelM9yRxEelC4TJXteA49iOpU?usp=sharing

Come potete vedere in Obscure 33 il salto è pazzesco (secondo me c'è qualche problema con la 5070 ti) si passa da 60 FPS a 92 FPS, viceversa con Hogwarts, la 5080 non riesce ad essere sfruttata più dell'85% ed il salto di FPS è quasi nullo pari 3 o 4 FPS in più (76 vs 80).


Allora ho fatto un bench nomad con 3dmark, ed ho ottenuto questo con la 5080:

https://www.3dmark.com/3dm/143558854?

dovrei essere in linea giusto?

Inoltre con nomad il consumo della scheda raggiunge i 361W:

https://drive.google.com/file/d/14_nplyAPU3Qe-uwx3Cn3xAZnoibxWo3f/view?usp=sharing

mentre invece ingame è sempre molto più basso come vedete dai video.



Tutti i test @default, no OC in nessun caso.

razor820
15-10-2025, 15:42
Lo scatolo delle uova :muro: Sara' rimasto scioccato al confronto con la confezione figa della sua ex 4080..


Perfettamente.
Ogni settimana mi portano le uova direttamente a casa, lo scatolo è uguale.

dAbOTZ
15-10-2025, 16:33
Assurdo. Appena arrivata la 5080.
Aumentano i prezzi, ma la qualità diminuisce.
Una scatola anonima, di cartone, senza loghi né niente. Non c è nemmeno il gommino per proteggere il pci.
Il peso poi rispetto alla 4080s sembra dimezzato.

https://uploads.tapatalk-cdn.com/20251015/5f24f9f116e5ca599c64cafad7062399.jpg

https://uploads.tapatalk-cdn.com/20251015/dd038860daec3ca493db578177e7f630.jpg

Anche sulla 5090 FE è simile?

E' perché si son dati al cat friendly, guarda che bel grattatoio.

razor820
15-10-2025, 17:19
non ho sfogliato troppe pagine addietro.
Ma 0.950mv a 3000mhz è esagerato?

Edit: msi afterburn non va d'accordo con la scheda video attuale.
Se imposto in automatico il clock, facendo un esempio, +300 lo imposta con il voltaggio in automatico, lo spara a 1.005

La curva invece non funge, posso mettere qualsiasi valore ma non lo rispetta. Se imposto per esempio il valore massimo a 0.980mv, al massimo mi va sempre a 0.960 e via dicendo.

Anto_Dur
15-10-2025, 17:33
Buongiorno
c'è qualcuno che nell'app nvidia stà ricevendo un codice di attivazione per borderlands4?

A me ha dato un codice da riscattare ma non ho capito se è il gioco o un dlc o un tool premium... Al momento ho un codice da attivare internamente al gioco, ma per scaricarlo mi manda su steam, e steam vuole il pagamento. Ovviamente se metto il codice in riscatta gioco non lo riconosce.

Lo vedo anche io ma non parla del gioco ma oggetti per chi ha il gioco.

nagashadow
15-10-2025, 22:59
Sì è una chiave d oro da usare all interno del gioco per aprire la relativa cassa

Gigibian
15-10-2025, 23:51
Mi è arrivata la 5080 inspire 3X MSI, ed ho fatto una breve comparazione con la 5070 TI PNY che avevo prima (scheda con dissi di fascia superiore):

FOTO COMPARATIVE:

https://drive.google.com/drive/folders/1jzR2zI0FR7HQnJ_GuWQTKyJpL7TqskpX?usp=sharing

VIDEO comparativi di performance (Hogwarts e Obscure 33):


https://drive.google.com/drive/folders/1431Q_anCelM9yRxEelC4TJXteA49iOpU?usp=sharing

Come potete vedere in Obscure 33 il salto è pazzesco (secondo me c'è qualche problema con la 5070 ti) si passa da 60 FPS a 92 FPS, viceversa con Hogwarts, la 5080 non riesce ad essere sfruttata più dell'85% ed il salto di FPS è quasi nullo pari 3 o 4 FPS in più (76 vs 80).


Allora ho fatto un bench nomad con 3dmark, ed ho ottenuto questo con la 5080:

https://www.3dmark.com/3dm/143558854?

dovrei essere in linea giusto?

Inoltre con nomad il consumo della scheda raggiunge i 361W:

https://drive.google.com/file/d/14_nplyAPU3Qe-uwx3Cn3xAZnoibxWo3f/view?usp=sharing

mentre invece ingame è sempre molto più basso come vedete dai video.



Tutti i test @default, no OC in nessun caso.

Altro bench con nomad:

http://www.3dmark.com/sn/9218807

9300 con 3100mhz @1.00Volt (Curve Editor) e RAM @ +3000


sono in linea?

Gigibian
16-10-2025, 00:08
Se vai indietro a vedere i post di chi a suo tempo ha preso la 5090 founder's, questo è il package "salvaGreta" delle 5000 :ciapet:

Si infatti, tutti ecologisti in NVIDIA, tralasciamo giusto il fatto che le loro inefficienti GPU bruciano TERAWATT di energia per rispondere alle domande aivari chatbot AI, tra cui Gemini ogni volta che fate una ricerca su google (inutilmente ed in maniera non richiesta)

Ma si, mettiamo il package di cartone che così risolviamo tutto!:muro:

tony73
16-10-2025, 01:43
TAAAC!

Presi i 16K in Speed Way :sofico:

https://www.3dmark.com/sw/2793012

Secondo al mondo con il 14900K con clock 5800Mhz dietro ad un tizio ungherese con un impressionante 16700 e rotti... :cry:

https://www.3dmark.com/search#advanced?test=sw%20P&cpuId=3189&gpuId=1686&gpuCount=0&gpuType=ALL&deviceType=ALL&storageModel=ALL&modelId=&showRamDisks=false&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=5800&maxCpuClock=5800

bobby10
16-10-2025, 09:55
Su market Place 5080 tuf a 800€ spedita ma è reale?

Esagerao
16-10-2025, 09:57
TAAAC!

Presi i 16K in Speed Way :sofico:

https://www.3dmark.com/sw/2793012

Secondo al mondo con il 14900K con clock 5800Mhz dietro ad un tizio ungherese con un impressionante 16700 e rotti... :cry:

https://www.3dmark.com/search#advanced?test=sw%20P&cpuId=3189&gpuId=1686&gpuCount=0&gpuType=ALL&deviceType=ALL&storageModel=ALL&modelId=&showRamDisks=false&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=5800&maxCpuClock=5800

Tanta tanta roba... i miei complimenti, gpu mostruosa, considerando anche ram "modeste" dalla firma.
Quando si raggiunge la top10 delle classifiche vuole dire la build è perfetta tutto l'hardware è in perfetta sintonia e sprigiona il top.

FrancoBit
16-10-2025, 09:59
Su market Place 5080 tuf a 800€ spedita ma è reale?

Be, TopVitamine è abbastanza famoso come venditore di hardware :sofico: :oink: :ciapet: :read:

Edit: ha anche altri prodotti HW, però non riesco a fidarmi in questi casi sinceramente, soprattutto considerando che ha anche la Astral a 850€, puzza tanto tanto

tony73
16-10-2025, 10:22
Tanta tanta roba... i miei complimenti, gpu mostruosa, considerando anche ram "modeste" dalla firma.
Quando si raggiunge la top10 delle classifiche vuole dire la build è perfetta tutto l'hardware è in perfetta sintonia e sprigiona il top.

Grazie, si questa Waterforce funziona bene e mi sa che con il freddo avvenire potrò osare di più :D

Se vuoi consigliarmi altre ram sono tutto orecchi, quando cambiai sistema non diedi eccessivo peso alla bontà delle ram, giusto un minimo per non prendere ciofeche, ma se il mercato propone roba migliore dimmi pure anche via PM dato che non mi interesso tanto a questo argomento negli ultimi tempi.

Esagerao
16-10-2025, 11:05
Grazie, si questa Waterforce funziona bene e mi sa che con il freddo avvenire potrò osare di più :D

Se vuoi consigliarmi altre ram sono tutto orecchi, quando cambiai sistema non diedi eccessivo peso alla bontà delle ram, giusto un minimo per non prendere ciofeche, ma se il mercato propone roba migliore dimmi pure anche via PM dato che non mi interesso tanto a questo argomento negli ultimi tempi.

Onestamente parlando della tua build, non toccherei niente considerando le prestazioni, potresti provare a occare @8000 le tue g.skill e lavorare sui timings per trovare qualcosa in più sui punteggi ma si parla max di 100-150 punti: il tuo kit dovrebbe essere con chip a-die quindi arrivarci tranquillamente imc permettendo.
Investire su una piattaforma di prossimo pensionamento quando è al top non è raccomandabile. Se mi dici voglio prendere nuove ram che riutilizzo in futuro puoi dare un occhiata a moduli tipo i miei:
i kit 48gb 8400 in commercio sono tutti sono hynix m-die progettati per superare i 9000mhz in oc, già oggi possbile con z890.

razor820
16-10-2025, 11:06
Provo a ripostare il mio quesito. Se imposto con la curva in msi ab a 0.975 a 2900 facendo un esempio, perché il voltaggio me lo tiene sempre più basso? Oscilla da 0.950 a 0.960

Cutter90
16-10-2025, 11:08
Provo a ripostare il mio quesito. Se imposto con la curva in msi ab a 0.975 a 2900 facendo un esempio, perché il voltaggio me lo tiene sempre più basso? Oscilla da 0.950 a 0.960

Perchè come discusso ampiamente nelle pagine precendenti il voltaggio e le frequenze impostate nelle 5000 sono diverse da quelle reali. Il voltaggio ha sempre un delta verso il basso uguale, cioè se imposto 980 farà sempre 960 ad esempio.
Le frequenze invece ballano anche a seconda del carico e del contenuto, oltre che avere un delta reale sempre verso il basso di 50-150 mhz :)

razor820
16-10-2025, 11:14
Perchè come discusso ampiamente nelle pagine precendenti il voltaggio e le frequenze impostate nelle 5000 sono diverse da quelle reali. Il voltaggio ha sempre un delta verso il basso uguale, cioè se imposto 980 farà sempre 960 ad esempio.
Le frequenze invece ballano anche a seconda del carico e del contenuto, oltre che avere un delta reale sempre verso il basso di 50-150 mhz :)


Quindi conviene impostare nel grafico anche i due punti precedenti al voltaggio desiderato o lasciare la solita impostazione, ovvero quello dell impostazione di uno solo punto della curva?

Cutter90
16-10-2025, 11:27
Quindi conviene impostare nel grafico anche i due punti precedenti al voltaggio desiderato o lasciare la solita impostazione, ovvero quello dell impostazione di uno solo punto della curva?

Se tiri su anche quelli indietro automaticamente ti prenderà quelli più dietro. Quindi alla fine io ho "imparato" l'offest che fa e via :D

tony73
16-10-2025, 11:36
Onestamente parlando della tua build, non toccherei niente considerando le prestazioni, potresti provare a occare @8000 le tue g.skill e lavorare sui timings per trovare qualcosa in più sui punteggi ma si parla max di 100-150 punti: il tuo kit dovrebbe essere con chip a-die quindi arrivarci tranquillamente imc permettendo.
Investire su una piattaforma di prossimo pensionamento quando è al top non è raccomandabile. Se mi dici voglio prendere nuove ram che riutilizzo in futuro puoi dare un occhiata a moduli tipo i miei:
i kit 48gb 8400 in commercio sono tutti sono hynix m-die progettati per superare i 9000mhz in oc, già oggi possbile con z890.

Si sono daccordo, rimango così fino al prossimo upgrade.

razor820
16-10-2025, 11:36
Se tiri su anche quelli indietro automaticamente ti prenderà quelli più dietro. Quindi alla fine io ho "imparato" l'offest che fa e via :D


Eh sì mi sa che faccio pure io così.
Provvisoriamente lascio così fino a quando non crasha con qualche gioco. Impostato a 0.970 a 3000 ma si stabilizza a 0.950 2925.

Al limite poi aumenterò qualcosa.
Devo solo capire se lasciare la ventola in automatico. Sinceramente con la curva non mi va che resti udibile al 30%
Preferisco in auto

FrancoBit
16-10-2025, 12:09
Eh sì mi sa che faccio pure io così.
Provvisoriamente lascio così fino a quando non crasha con qualche gioco. Impostato a 0.970 a 3000 ma si stabilizza a 0.950 2925.

Al limite poi aumenterò qualcosa.
Devo solo capire se lasciare la ventola in automatico. Sinceramente con la curva non mi va che resti udibile al 30%
Preferisco in auto

In game, anche se forse è un po' presto, hai notato differenze importanti rispetto alla 4080s?

Cutter90
16-10-2025, 12:21
Eh sì mi sa che faccio pure io così.
Provvisoriamente lascio così fino a quando non crasha con qualche gioco. Impostato a 0.970 a 3000 ma si stabilizza a 0.950 2925.

Al limite poi aumenterò qualcosa.
Devo solo capire se lasciare la ventola in automatico. Sinceramente con la curva non mi va che resti udibile al 30%
Preferisco in auto

Anche con AB puoi abilitare il fan stop, se previsto dalla tua vga :D

razor820
16-10-2025, 12:53
In game, anche se forse è un po' presto, hai notato differenze importanti rispetto alla 4080s?


Più che altro ho notato la differenza di STAZZA! :D
No le differenze sono irrisorie 10% circa. Già sapevo che questa serie era una delle poche della storia con margini bassi rispetto alla precedente.

Io ho upgradato semplicemente per il DLS4, che in alcuni giochi il boost ti aiuta. Per la garanzia futura. E sopratutto che tra la vendita della mia e l acquisto di questa ho perso 250 euro.

Tra L altro mi hanno regalato il gioco arc riders.
Che ancora non ho capito come riscattarlo, visto che nvidia ancora mi deve mandare sia la fattura che il codice

Gigibian
16-10-2025, 13:08
Su market Place 5080 tuf a 800€ spedita ma è reale?

Il venditore è stato già bannato sembrerebbe...sparito...

Jack Carver
16-10-2025, 13:14
TAAAC!

Presi i 16K in Speed Way :sofico:

https://www.3dmark.com/sw/2793012

Secondo al mondo con il 14900K con clock 5800Mhz dietro ad un tizio ungherese con un impressionante 16700 e rotti... :cry:

https://www.3dmark.com/search#advanced?test=sw%20P&cpuId=3189&gpuId=1686&gpuCount=0&gpuType=ALL&deviceType=ALL&storageModel=ALL&modelId=&showRamDisks=false&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=5800&maxCpuClock=5800

complimenti vivissimi. postalo nella sezione benchmark

Cutter90
16-10-2025, 13:59
Più che altro ho notato la differenza di STAZZA! :D
No le differenze sono irrisorie 10% circa. Già sapevo che questa serie era una delle poche della storia con margini bassi rispetto alla precedente.

Io ho upgradato semplicemente per il DLS4, che in alcuni giochi il boost ti aiuta. Per la garanzia futura. E sopratutto che tra la vendita della mia e l acquisto di questa ho perso 250 euro.

Tra L altro mi hanno regalato il gioco arc riders.
Che ancora non ho capito come riscattarlo, visto che nvidia ancora mi deve mandare sia la fattura che il codice

Che però funzionava anche sulla serie 4000 :mbe:

dAbOTZ
16-10-2025, 14:00
TAAAC!

Presi i 16K in Speed Way :sofico:

https://www.3dmark.com/sw/2793012

Secondo al mondo con il 14900K con clock 5800Mhz dietro ad un tizio ungherese con un impressionante 16700 e rotti... :cry:

https://www.3dmark.com/search#advanced?test=sw%20P&cpuId=3189&gpuId=1686&gpuCount=0&gpuType=ALL&deviceType=ALL&storageModel=ALL&modelId=&showRamDisks=false&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=5800&maxCpuClock=5800

Con le high end son capaci tutti, fino a che non batti il world record con le middle non sei nessuno.

https://i.ibb.co/4n39vYhy/3-DMark-Speedway-World-Record-5070-TI-5800-X3-D.png

[si scherza eh :D my compliments]

FrancoBit
16-10-2025, 14:16
Che però funzionava anche sulla serie 4000 :mbe:

Penso si riferisca al MFG

Esagerao
16-10-2025, 14:47
Con le high end son capaci tutti, fino a che non batti il world record con le middle non sei nessuno.

https://i.ibb.co/4n39vYhy/3-DMark-Speedway-World-Record-5070-TI-5800-X3-D.png

[si scherza eh :D my compliments]

Eh complimenti anche a te, non è mai facile, come dicevo, spremere a dovere tutto l'hardware.

A questo giro non sono competitivo nei bechmarks la ventus è la cenerentola delle 5090 heheh osservo dalla finestra.
Magari se mi prende la scimmia del flashbios....in futuro...
Con questa cpu/gpu ti scontri con la gente più malata del pianeta...

Con 13900k e 4080s ero nella top ten di categoria...

razor820
16-10-2025, 14:57
Penso si riferisca al MFG


Si a quello. Anche se non ho capito ancora se bisogna per forza attivarlo direttamente da app nvidia o anche dalle impostazioni dei giochi

Cutter90
16-10-2025, 15:26
Si a quello. Anche se non ho capito ancora se bisogna per forza attivarlo direttamente da app nvidia o anche dalle impostazioni dei giochi

Quello da app nvidia, lo smoot Motion è un FG applicato via driver generalemnte più "scarso" di quello nei giochi.

tony73
16-10-2025, 18:18
complimenti vivissimi. postalo nella sezione benchmark

Thx ��

In tutti questi anni che sono iscritto scopri da te solo adesso che c’è una sezione benchmark…

EDIT

Sono andato a vedere e sarei terzo, farò di tutto per arrivare al secondo posto (il primo è con un cpu AMD quindi la vedo dura).

Con le high end son capaci tutti, fino a che non batti il world record con le middle non sei nessuno.

https://i.ibb.co/4n39vYhy/3-DMark-Speedway-World-Record-5070-TI-5800-X3-D.png

[si scherza eh :D my compliments]

Ahah LOL ��

Eh complimenti anche a te, non è mai facile, come dicevo, spremere a dovere tutto l'hardware.

A questo giro non sono competitivo nei bechmarks la ventus è la cenerentola delle 5090 heheh osservo dalla finestra.


Si ma fidati che almeno hai risparmiato… la mia schedina l’ho pagata più di 3k pappine…

Esagerao
16-10-2025, 21:17
Thx ��

In tutti questi anni che sono iscritto scopri da te solo adesso che c’è una sezione benchmark…

EDIT

Sono andato a vedere e sarei terzo, farò di tutto per arrivare al secondo posto (il primo è con un cpu AMD quindi la vedo dura).



Ahah LOL ��

Si ma fidati che almeno hai risparmiato… la mia schedina l’ho pagata più di 3k pappine…

A parte la scimmia di benchmark devo dire, che attualmente con drivers maturi, sono soddisfatto, nel real world gaming, quei fps in meno, una volta con dlss una volta con fg con schermo vrr non sono percettibili...Piuttosto ho lavorato sulle ram che su cpu dual ccd le frequenze alte aiutano specie in scenari eleborati o con molta gente nei cali o fps minimi... situazioni che i benchmark naturalmente non evidenziano.

Gigibian
17-10-2025, 08:42
Ma lo vedete anche voi che il forum si é incasinato tutto? Tutti i thread riportano ultimo messaggio delle 2:19 che non esiste...

Rumpelstiltskin
17-10-2025, 08:45
Lo avranno hackerato e poi ripristinato backup delle 2:19

Jack Carver
17-10-2025, 09:57
Ma lo vedete anche voi che il forum si é incasinato tutto? Tutti i thread riportano ultimo messaggio delle 2:19 che non esiste...

non solo. ho notato che in schede video c'erano collegati quasi 400 utenti cosa alquanto strana perchè in 20 anni che seguo questo forum non è mai successo
non lo so mi è parso strano

tony73
17-10-2025, 10:40
Di sicuro stasera qualcosa è accaduto dato che dalle una di notte in poi il sito non era raggiungibile

razor820
17-10-2025, 10:51
Lo avranno hackerato e poi ripristinato backup delle 2:19


XXAngeloXX

Lo trovo in qualsiasi discussione sottoscritta

Sonpazzo
17-10-2025, 11:31
si è ovunque :asd:

mikael84
17-10-2025, 11:59
I tecnici ci stanno lavorando, tornate alla discussione.

tony73
17-10-2025, 14:16
A parte la scimmia di benchmark devo dire, che attualmente con drivers maturi, sono soddisfatto, nel real world gaming, quei fps in meno, una volta con dlss una volta con fg con schermo vrr non sono percettibili...Piuttosto ho lavorato sulle ram che su cpu dual ccd le frequenze alte aiutano specie in scenari eleborati o con molta gente nei cali o fps minimi... situazioni che i benchmark naturalmente non evidenziano.

Si ma infatti la cosa principale è ottimizzare il tutto per giocare meglio! I bench sono solo uno sfizio personale per vedere dove si può arrivare in alto con i NUMERI con il proprio hardware, tutto qui.

Nel frattempo ho migliorato il mio punteggio e l’ho postato nella sezione giusta https://www.3dmark.com/sw/2796511 , sono o secondo o terzo a seconda di come si vuole vedere dato che i primi due hanno lo stesso punteggio, sarà difficile avvicinarmi ai loro punteggi dato che hanno AMD, ma lavoro per arrivare a 16100.

BitCrafter
18-10-2025, 14:14
TAAAC!

Presi i 16K in Speed Way :sofico:

https://www.3dmark.com/sw/2793012

Secondo al mondo con il 14900K con clock 5800Mhz dietro ad un tizio ungherese con un impressionante 16700 e rotti... :cry:

https://www.3dmark.com/search#advanced?test=sw%20P&cpuId=3189&gpuId=1686&gpuCount=0&gpuType=ALL&deviceType=ALL&storageModel=ALL&modelId=&showRamDisks=false&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=5800&maxCpuClock=5800

complimenti, qual è la media dei daily per le 5090 su SpeedWay e Nomad?
parlo in generale per una 5090, non nello specifico per la tua.

tony73
18-10-2025, 22:55
complimenti, qual è la media dei daily per le 5090 su SpeedWay e Nomad?
parlo in generale per una 5090, non nello specifico per la tua.

Grazie, punteggio aggiornato a 16072.

Comunque la media é intorno ai 15500 + o - per speed way. Nomad ancora non l’ho provato…

BitCrafter
20-10-2025, 17:51
Ma invece le memorie a quanto le mettete su msi afterburner? io ho notato che oltre + 500 non ho aumenti di prestazione anzi peggio
ho provato 620 e 750


edit:

Ho fatto un test di benchmark in Cyberpunk 2077

tutto max scheda default = 158fps
tutto max scheda + 300core + 500mem = 167.40fps
tutto max scheda + 400core + 500mem = 169.90fps

le DDR6 hanno una correzione dell'errore da non confondere con il vero ECC che degrada le performance prima di andare in errore. direi che è normale.
ecco perchè molti che tengono le memorie a 3000 pensano di avere tutto stabile quando magari non è vero :D

Dono89
21-10-2025, 09:51
le DDR6 hanno una correzione dell'errore da non confondere con il vero ECC che degrada le performance prima di andare in errore. direi che è normale.
ecco perchè molti che tengono le memorie a 3000 pensano di avere tutto stabile quando magari non è vero :D

Su che base dici che peggiorano? Vulkan test? 3dmark overall score?

Gli ECC non sono abilitati spesso anche se le memorie li supportano.

Fatemi capire perchè questa cosa che cala il punteggio io non l'ho mai vista, al massimo non ottieni più beneficio, ma perchè il collo di bottiglia è altrove (aiutano soprattutto l'1%, non i medi, che forse sono ancora più importanti)

kiwivda
21-10-2025, 11:03
Su che base dici che peggiorano? Vulkan test? 3dmark overall score?

Gli ECC non sono abilitati spesso anche se le memorie li supportano.

Fatemi capire perchè questa cosa che cala il punteggio io non l'ho mai vista, al massimo non ottieni più beneficio, ma perchè il collo di bottiglia è altrove (aiutano soprattutto l'1%, non i medi, che forse sono ancora più importanti)

Puoi usare un semplice Vulkan mem test e vedere in prima persona se le memorie aumentano o diminuiscono di prestazioni all'aumentare della frequenza.

Dono89
21-10-2025, 13:45
Puoi usare un semplice Vulkan mem test e vedere in prima persona se le memorie aumentano o diminuiscono di prestazioni all'aumentare della frequenza.

Quello mi torna, il punto è che non capisco perchè debbano diminuire. Gli ecc non sono abilitati nelle schede video gaming ma lasciati al segmento pro. Almeno da quanto sapevo, poi magari con le g7 è cambiato qualcosa.

Giro la domanda, ci sono stati casi dove con +1000 con Vulkan si avevano 800gb di lettura e +3000 700?

dAbOTZ
21-10-2025, 13:56
le DDR6 hanno una correzione dell'errore da non confondere con il vero ECC che degrada le performance prima di andare in errore. direi che è normale.
ecco perchè molti che tengono le memorie a 3000 pensano di avere tutto stabile quando magari non è vero :D

Non ho ben capito dove si sia originata questa teoria che da reddit si sta diffondendo a macchia d'olio. Io a +3000 non ho nessun calo di prestazioni né errori.

https://i.postimg.cc/yNzp7jTF/Memtest5070-Ti-3000.png

[725GB/sec a stock]

kiwivda
21-10-2025, 15:25
Quello mi torna, il punto è che non capisco perchè debbano diminuire. Gli ecc non sono abilitati nelle schede video gaming ma lasciati al segmento pro. Almeno da quanto sapevo, poi magari con le g7 è cambiato qualcosa.

Giro la domanda, ci sono stati casi dove con +1000 con Vulkan si avevano 800gb di lettura e +3000 700?

Non che io sappia, quando avevo la 9070XT testai le memorie e si avevano un limite oltre il quale rendevano meno, ma tipo sulla 5090 fino a +3000 solo aumenti, poi oltre non saprei per come sale sembrerebbe andare anche oltre, ma non ho modo di provare, poi magari a 3001 crasha male chi lo sa.

mikael84
21-10-2025, 16:34
Non che io sappia, quando avevo la 9070XT testai le memorie e si avevano un limite oltre il quale rendevano meno, ma tipo sulla 5090 fino a +3000 solo aumenti, poi oltre non saprei per come sale sembrerebbe andare anche oltre, ma non ho modo di provare, poi magari a 3001 crasha male chi lo sa.

Si AMD sul controller è sempre stato più problematico, riesci giusto a passare da 20 a 22gb/s. I primi errori si avvertono appena si superano di nulla i 22,5 gb/s.
Nei test le latenze date dagli errori (previo il continuo rinvio), non sempre ti fanno crashare, ma i punteggi, o non salgono o scendono direttamente.

Un tempo, AMD o le elite nvidia HOF e lightning/KP, permettevano di aumentare la tensione e di andare oltre.

Gli utenti vecchia data, ricorderanno il bench unigine 3.0 (thread andato perso purtroppo), dove la vera bravura stava nel cercare il ratio vram ideale.

BitCrafter
22-10-2025, 07:57
Non ho ben capito dove si sia originata questa teoria che da reddit si sta diffondendo a macchia d'olio. Io a +3000 non ho nessun calo di prestazioni né errori.

[725GB/sec a stock]

Non è una teoria che viene da reddit è il funzionamento classico di ogni chip DDR5 e DDR6.
La specifica DDR ha introdotto il concetto di correzione dell'errore sul chip.

Adesso i chip DDR5 e DDR6 fanno correzione dell'errore direttamente sul chip, questo significa che se li spingi oltre al limite c'è una soglia entro cui riescono a correggere l'errore a scapito delle performance. Ovviamente la correzione dell'errore non è pensata per l'overclock ma semplicemente per correggere errori in situazioni normali, errori che possono sempre avvenire.

Questo tipo di correzione avviene direttamente sul chip e non è da confondere con la correzione usata sui server e sui Nas chiamata ECC dove il controllo dell'errore è esteso anche al bus di comunicazione ed al controller di memoria.

Quindi ti dirò di più, il degrado delle performance se spingi troppo non c'è solo sulla GPU ma anche sulla CPU se hai le ddr5.

Poi questo degrado succede solo se ci sono errori, se tu sei stabile potresti non avere nessun degrado delle performance.

Su un sistema ECC completo, la correzione dell'errore è talmente forte da permetterti di spingere molto oltre il livello di stabilità senza avere errori non corretti ovviamente a scapito delle performance.

BitCrafter
22-10-2025, 08:03
Si AMD sul controller è sempre stato più problematico, riesci giusto a passare da 20 a 22gb/s. I primi errori si avvertono appena si superano di nulla i 22,5 gb/s.
Nei test le latenze date dagli errori (previo il continuo rinvio), non sempre ti fanno crashare, ma i punteggi, o non salgono o scendono direttamente.

Un tempo, AMD o le elite nvidia HOF e lightning/KP, permettevano di aumentare la tensione e di andare oltre.

Gli utenti vecchia data, ricorderanno il bench unigine 3.0 (thread andato perso purtroppo), dove la vera bravura stava nel cercare il ratio vram ideale.

Io unigine lo uso ancora, ancora validissimo per testare le nuove GPU, Heaven è tra i migliori per le instabilità sui carichi leggeri (se messo in loop), superposition è molto sensibile alle frequenze di picco con un discreto carico.
E poi sono gli unici benchmark seri che funzionano nativamente sotto Linux.

Cutter90
22-10-2025, 08:10
Non è una teoria che viene da reddit è il funzionamento classico di ogni chip DDR5 e DDR6.
La specifica DDR ha introdotto il concetto di correzione dell'errore sul chip.

Adesso i chip DDR5 e DDR6 fanno correzione dell'errore direttamente sul chip, questo significa che se li spingi oltre al limite c'è una soglia entro cui riescono a correggere l'errore a scapito delle performance. Ovviamente la correzione dell'errore non è pensata per l'overclock ma semplicemente per correggere errori in situazioni normali, errori che possono sempre avvenire.

Questo tipo di correzione avviene direttamente sul chip e non è da confondere con la correzione usata sui server e sui Nas chiamata ECC dove il controllo dell'errore è esteso anche al bus di comunicazione ed al controller di memoria.

Quindi ti dirò di più, il degrado delle performance se spingi troppo non c'è solo sulla GPU ma anche sulla CPU se hai le ddr5.

Poi questo degrado succede solo se ci sono errori, se tu sei stabile potresti non avere nessun degrado delle performance.

Su un sistema ECC completo, la correzione dell'errore è talmente forte da permetterti di spingere molto oltre il livello di stabilità senza avere errori non corretti ovviamente a scapito delle performance.

Beh, nella pratica sulla 5090 a +3000 sulle ram si ha solo vantaggi di performance, rispetto a +0. Testato più volte sia nei sintetici che ingame. Quindi queste chiacchiere lasciano un po' il tempo che trovano

rintintin78
22-10-2025, 09:43
Io sulla 5090 in game tra +1000 e +3000 sulle ram mi danno solo 1/2 FPS quando faccio 230FPS

Eddie666
22-10-2025, 09:46
a chi interessa in questo momento su L*D*C si trova una ventus ricondizionata a 2000 euro; in più oggi propongono uno sconto del 3%, per cui il prezzo finale diventa di 1900 euro

BitCrafter
22-10-2025, 10:09
Beh, nella pratica sulla 5090 a +3000 sulle ram si ha solo vantaggi di performance, rispetto a +0. Testato più volte sia nei sintetici che ingame. Quindi queste chiacchiere lasciano un po' il tempo che trovano

non è proprio così.
quando la scheda è vicina al limite del TDP e del voltaggio l'alimentazione delle memorie diventa meno stabile e di conseguenza anche la loro stabilità complessiva ne risente.

sulla mia scheda con un semplice OC da +350MHz sul core,
con le RAM a +2000 ottengo risultati migliori che a +3000, ovviamente dipende anche dal tipo di carico.

questo comportamento cambia da scheda a scheda visto che si parla appunto di OC.

prima di bollare certe cose come chiacchiere, basta informarsi, si parla di on-die ECC.

E' un controllo molto più scrauzo del puro ECC a cui molti di noi sono abituati ma è cmq un controllo in più. e ripeto, chi di noi ha usato ECC in passato conosce molto bene quello di cui parlo.

le memorie ECC (da non confondere con il semplice on-die ECC) puoi portarle molto fuori specifica prima di iniziare a vedere qualche errore a scapito delle performance.

Cutter90
22-10-2025, 10:19
non è proprio così.
quando la scheda è vicina al limite del TDP e del voltaggio l'alimentazione delle memorie diventa meno stabile e di conseguenza anche la loro stabilità complessiva ne risente.

sulla mia scheda con un semplice OC da +350MHz sul core,
con le RAM a +2000 ottengo risultati migliori che a +3000, ovviamente dipende anche dal tipo di carico.

poi ovviamente questo comportamento cambia da scheda a scheda visto che si parla appunto di OC.

prima di bollare certe cose come chiacchiere, basta informarsi, si parla di on-die ECC.

E' un controllo molto più scrauzo del puro ECC a cui molti di noi sono abituati ma è cmq un controllo in più. e ripeto, chi di noi ha usato ECC in passato conosce molto bene quello di cui parlo.

le memorie ECC (da non confondere con il semplice on-die ECC) puoi portarle molto fuori specifica prima di iniziare a vedere qualche errore a scapito delle performance.

Sulla 5090 ho testato che a +3000 il guadagno c'è rispetto a + 1000. E questa è una cosa certa, visto che appunto l'ho testato sia in sintetici che ingame. Quindi ho poco da informarmi. E' così, sulla mia 5090. Al massimo il guadagno è poco. Ma non è mai in negativo. o instabile.
Poi se in altre situazioni cn altre schede è diverso allora ok, quello ci può anche stare :)

rintintin78
22-10-2025, 10:21
Scusate, ma come testate se UV della 5090 è stabile? Fate dei test o giocate e basta e se crasha abbassate?

BitCrafter
22-10-2025, 10:52
Quindi ho poco da informarmi. E' così, sulla mia 5090

Ok

Scusate, ma come testate se UV della 5090 è stabile? Fate dei test o giocate e basta e se crasha abbassate?

questo è quello che faccio io.

prima di iniziare a giocare/renderizzare faccio un loop di una 15ina di minuti in Unigine Heaven a 1080P tutto al max,
per testare i carichi bassi a frequenze alte.
e già qua individuo il 95% degli errori sulle frequenze di punta, questo lo uso per abbassare eventualmente la curva sulle frequenze alte a uno specifico voltaggio.

poi testo le frequenze sotto carico pesante con 3DMark,
inizio con un paio di run di speedway,
se va faccio stress test da 20 run di speedway.
se va, faccio altre 20 run di steel nomad sempre in modalità stress test.

poi faccio una 15ina di minuti di vray bench prima in CUDA, poi in RTX.

se va nel 99.99% dei casi è stabile.

tieni conto che il tempo per testare le varie configurazioni non è molto perchè se non è stabile di solito non arrivi a fare tutti i test e ti fermi molto presto nella pipeline di test che ti ho descritto.

Esagerao
22-10-2025, 10:56
Scusate, ma come testate se UV della 5090 è stabile? Fate dei test o giocate e basta e se crasha abbassate?

Il miglior test è il game, dopo un ora di cyberpunk, alan wake 2 maxato sei apposto, tanto se la curva uv non è buona in meno 10 minuti crasha sicuro.


Per quando mi riguarda le memorie non mi hanno mai causato alcuno crash sia a 2000 che a 3000mhz anche le temperature non ne risentono in modo apprezzabile.

BitCrafter
22-10-2025, 11:08
Il miglior test è il game, dopo un ora di cyberpunk, alan wake 2 maxato sei apposto, tanto se la curva uv non è buona in meno 10 minuti crasha sicuro.


Per quando mi riguarda le memorie non mi hanno mai causato alcuno crash sia a 2000 che a 3000mhz anche le temperature non ne risentono in modo apprezzabile.

cyberpunk e alan wake non funzionano benissimo per le frequenze di punta perchè spingono troppo sul TDP.

con la mia curva per esempio su Cyberpunk non supero i 3GHz in game perchè limitato dal TDP mentre su AC Shadows (o su Unigine Heaven) vado tranquillamente a 3150MHz ed è proprio li che ho la maggior parte dei crash dovuti all'undervolt.

Cutter90
22-10-2025, 11:17
cyberpunk e alan wake non funzionano benissimo per le frequenze di punta perchè spingono troppo sul TDP.

con la mia curva per esempio su Cyberpunk non supero i 3GHz in game perchè limitato dal TDP mentre su AC Shadows (o su Unigine Heaven) vado tranquillamente a 3150MHz ed è proprio li che ho la maggior parte dei crash dovuti all'undervolt.

Esattamente. Visto che la frequenza oscilla moltissimo in base a quanto "tira" Il gioco alla fine dipende davvero da gioco a gioco. Io ne ho fatto uno "sicuro" che ancora non mi è mai crashato. Ma se lo si vuole fare bello tirato è dura farlo in modo universale, secondo me

BitCrafter
22-10-2025, 11:23
Esattamente. Visto che la frequenza oscilla moltissimo in base a quanto "tira" Il gioco alla fine dipende davvero da gioco a gioco. Io ne ho fatto uno "sicuro" che ancora non mi è mai crashato. Ma se lo si vuole fare bello tirato è dura farlo in modo universale, secondo me

si vero. il pattern di test che ho descritto è quello più veloce che ho trovato e con "meno interazione" da parte mia.
diciamo che se superi quei test come li ho descritti con buona probabilità sei stabile, però si, tutto dipende da quanto sei vicino al limite.

però provatelo unigine heaven a 1080P perchè è veramente fenomenale per beccare le instabilità sulle curve con poco voltaggio ad alte frequenze. :)

dAbOTZ
22-10-2025, 11:30
Veramente a me risulta che l'on-die ECC introdotto con DDR5 serva a mantenere l'affidabilità produttiva dei chip DRAM, non a correggere in real time errori da overclock. Se una GPU a +3000 va meno che a +2000 è perché ha perso la silicon lottery ed è elettricamente instabile.

BitCrafter
22-10-2025, 11:50
Veramente a me risulta che l'on-die ECC introdotto con DDR5 serva a mantenere l'affidabilità produttiva dei chip DRAM, non a correggere in real time errori da overclock

ok questo è quello che hai cercato su google, e infatti il motivo per cui nasce l'on-die ecc è quello, non serve certo per correggere errori di OC, ma d'altro canto i suoi effetti sono quelli che ho descritto quando si parla di OC.

ragazzi ma avete mai overcloccato le memorie su una CPU DDR5?
caspita queste sono le basi dai tempi dell'arrivo delle DDR5 :D

Se una GPU a +3000 va meno che a +2000 è perché ha perso la silicon lottery ed è elettricamente instabile.

ok che si traduce in quello che ho detto io con una spiegazione "più tecnica" se così la vogliamo definire :)
che a sua volta si traduce in, non è vero che +3000 è sempre meglio di +2000.
però sono rari i casi dove +1000 non è meglio di +2000 o +3000.

Eddie666
22-10-2025, 11:54
Scusate, ma come testate se UV della 5090 è stabile? Fate dei test o giocate e basta e se crasha abbassate?

per la stabilità in ray tracing e carichi alti utilizzo lo stress benchmark port royal di 3dmark (ripetuto anche più volte).

Passato quello vado a testare con applicazioni più light che fanno salire maggiormente le frequenze (es il citato unigine heaven).

successivamente vado a testare un pò di game (più o meno pesanti) per almeno 1 oretta ciascuno, dopodichè mi ritengo soddisfatto (ad oggi ho creato 3 profili con questo sistema, e una volta effettuate le prove di cui sopra non ho mai avuto un crash)

dAbOTZ
22-10-2025, 12:17
ok questo è quello che hai cercato su google, e infatti il motivo per cui nasce l'on-die ecc è quello, non serve certo per correggere errori di OC, ma d'altro canto i suoi effetti sono quelli che ho descritto quando si parla di OC.

ragazzi ma avete mai overcloccato le memorie su una CPU DDR5?
caspita queste sono le basi dai tempi dell'arrivo delle DDR5 :D



ok che si traduce in quello che ho detto io con una spiegazione "più tecnica" se così la vogliamo definire :)
che a sua volta si traduce in, non è vero che +3000 è sempre meglio di +2000.
però sono rari i casi dove +1000 non è meglio di +2000 o +3000.

Veramente è quel che so senza cercare. Sei iscritto da cinque minuti e sei già riuscito a renderti simpatico come un calcio nel culo, mica male. L'on-die ECC è invisibile all'utente, come puoi affermare con così tanta certezza che stia intervenendo?

BitCrafter
22-10-2025, 12:22
Veramente è quel che so senza cercare. Sei iscritto da cinque minuti e sei già riuscito a renderti simpatico come un calcio nel culo, mica male. L'on-die ECC è invisibile all'utente, come puoi affermare con così tanta certezza che stia intervenendo?

facendo bench appropriati e vedendo che le performance anzichè salire scendono.

rpeto, sulle memorie full ECC questa cosa che sto descrivendo è la normalità ed è visibilissima anche da un cieco.
sulle on-die ECC ovviamente la differenza è meno visibile perchè il controllo avviene solo a livello di chip e non dal chip alla CPU.

riguardo all'antipatia, mi spiace non era il mio intento.
diciamo che ho provato a dare delle spiegazioni leggermente più tecniche che giustifichino quello che sto dicendo visto che si è parlato di "silicon lottery e di chiacchiere" che a mio avviso centrano meno il "problema" dell'on-die ecc. :)

se l'ho fatto in maniera poco simpatica mi scuso. non sono un tipo simpatico ma nemmeno scontroso o antipatico di solito :D

dAbOTZ
22-10-2025, 12:30
Già dimenticato, ma tornando a bomba: passino le full ma stai attribuendo i cali di performance miratamente all'intervento dell'on-die ECC, è questo che non è chiaro, non mi risulta esista nessun modo di verificare se stia intervenendo o meno. A te sì? Per questo parlavo di teoria da reddit, tutti a battere sulla stessa ma non ho mai visto evidenze certe, solo prove empiriche da cui si ipotizza che l'on-die ECC entri in gioco nell'OC spinto.

Dono89
22-10-2025, 14:16
Alzando le memorie, spesso con carichi elevati si riduce il voltaggio del core e quindi la curva si flette andando a ridurre le prestazioni del core.

Ripeto, non c'entra l'ecc introdotto dalle g6x in su

BitCrafter
22-10-2025, 14:39
Già dimenticato, ma tornando a bomba: passino le full ma stai attribuendo i cali di performance miratamente all'intervento dell'on-die ECC, è questo che non è chiaro, non mi risulta esista nessun modo di verificare se stia intervenendo o meno. A te sì? Per questo parlavo di teoria da reddit, tutti a battere sulla stessa ma non ho mai visto evidenze certe, solo prove empiriche da cui si ipotizza che l'on-die ECC entri in gioco nell'OC spinto.

capito, è vero che non c'è un flag che ti dice se la correzione dell'errore è stata triggherata o meno ma considerando come funziona l'on-die ECC è molto probabile che uno dei principali motivi sia quello se vedi cali di performance e se l'effective clock non è cambiato.

alla fine l'on-die ECC fa proprio quello, corregge errori sui chip ed è proprio nel chip che vengono generati parte degli errori quando si fa OC come è logico che sia portando fuori specifica i chip (e non solo).

la cosa però è molto più semplice da vedere sulle CPU dove la frequenza non cambia (in relazione alle memorie) ma le prestazioni calano sensibilmente sui test di latenza.

io ho avuto varie mobo DDR5, sia intel che AMD, con vari kit di memoria, sempre su quantitativi di memoria corposi e su 4 banchi, quindi su situazioni difficili,
e li è veramente facile vedere la differenza se si usano test di latenza / bandwidth che fanno anche controllo dell'errore.

BitCrafter
22-10-2025, 14:45
Alzando le memorie, spesso con carichi elevati si riduce il voltaggio del core e quindi la curva si flette andando a ridurre le prestazioni del core.

Ripeto, non c'entra l'ecc introdotto dalle g6x in su

e tu come fai a esserne certo? quale spiegazione ci sarebbe sulla negazione di questa teoria?
la teoria è riproducibile facilmente test alla mano sulle CPU.

se raffreddate bene sotto il giusto carico l'effective clock è abbastanza stabile e quindi anche sulle GPU si può fare questo tipo di test.

l'on-die ECC non è altro che una forma semplificata di ECC per cui ovviamente, corregge gli errori

Dono89
22-10-2025, 15:00
e tu come fai a esserne certo? quale spiegazione ci sarebbe sulla negazione di questa teoria?
la teoria è riproducibile facilmente test alla mano sulle CPU.

se raffreddate bene sotto il giusto carico l'effective clock è abbastanza stabile e quindi anche sulle GPU si può fare questo tipo di test.

l'on-die ECC non è altro che una forma semplificata di ECC per cui ovviamente, corregge gli errori

Il fatto che da protocollo ci sia l'ecc non significa che sia abilitato.

Riguardo il voltaggio/step di bin basta vedere il core ad alto carico ma sempre dentro il PL e ti accorgi che è maggiore se il carico è basso.
Altro test che si può fare (sempre a carichi importanti, ma con margine sul pl) è portare le memorie da 3000 a 1000, ci sarà un'incremento di voltaggio sul core e conseguente step di bin.

Cmq guardare i medi serve a poco, i benefici sono soprattutto sui low, quindi sparatele se regge, cosa che vale per il 99% delle schede

BitCrafter
22-10-2025, 15:12
Il fatto che da protocollo ci sia l'ecc non significa che sia abilitato.

Riguardo il voltaggio/step di bin basta vedere il core ad alto carico ma sempre dentro il PL e ti accorgi che è maggiore se il carico è basso.
Altro test che si può fare (sempre a carichi importanti, ma con margine sul pl) è portare le memorie da 3000 a 1000, ci sarà un'incremento di voltaggio sul core e conseguente step di bin.

Cmq guardare i medi serve a poco, i benefici sono soprattutto sui low, quindi sparatele se regge, cosa che vale per il 99% delle schede

quello che dici tu è l'ECC che è opzionale,

l'on-die ECC fa parte dello standard JEDEC e non è opzionale,
senza l'on-die ECC le DDR5 e 6 non potrebbero esistere come le conosciamo ora.

e poi l'on-die ecc non è un protocollo,
aggiungo che i produttori possono solo scegliere come implementare il controllo di parità,
ma per chiamarle DDR5 o 6, devono implementare e attivare per forza il controllo dell'errore visto che lo impone JEDEC.

va bene contraddirmi, però portiamo sostanza.

facciamola facile e tagliamo la testa al toro,
spararle a 3000 ha senso solo se le performance non calano ;)

Dono89
22-10-2025, 16:13
quello che dici tu è l'ECC che è opzionale,

l'on-die ECC fa parte dello standard JEDEC e non è opzionale,
senza l'on-die ECC le DDR5 e 6 non potrebbero esistere come le conosciamo ora.

e poi l'on-die ecc non è un protocollo,
aggiungo che i produttori possono solo scegliere come implementare il controllo di parità,
ma per chiamarle DDR5 o 6, devono implementare e attivare per forza il controllo dell'errore visto che lo impone JEDEC.

va bene contraddirmi, però portiamo sostanza.

facciamola facile e tagliamo la testa al toro,
spararle a 3000 ha senso solo se le performance non calano ;)

Prima cosa datti una calmata e fatti un bagno di umiltà, non sai mai chi hai dall'altra parte e per una discussione proficua sarebbe meglio cambiassi atteggiamento.

Detto questo, non stavamo parlando di standard e non ha senso tirare fuori la differenza tra on-die ed ecc puro. Ricordo che si parlava di impatti negativi alle prestazioni dati da clock elevati, che l'on die ecc sia parte del jedec non prova nulla, anche prima delle g7 c'era e non c'era un decadimento delle prestazioni dato da alti clock.

Se spari le memorie a 1000 puoi prendere quei 30MHz sul clock, ma il più delle volte non compensano i +2000 di differenza. Quindi, salvo rarissimi casi, ha senso eccome portarle alle 3000 sulle g7 (tanto più sulla 5080 che in realtà è downcloccata sulle mem di default).

Portami un caso in cui avere le mem a 3000 peggiora bench o game rispetto le mem a 1000. Ti direi vulkan, ma non troveresti nulla a riguardo perchè per l'appunto non accade.

BitCrafter
22-10-2025, 16:52
Prima cosa datti una calmata e fatti un bagno di umiltà, non sai mai chi hai dall'altra parte e per una discussione proficua sarebbe meglio cambiassi atteggiamento.

Detto questo, non stavamo parlando di standard e non ha senso tirare fuori la differenza tra on-die ed ecc puro. Ricordo che si parlava di impatti negativi alle prestazioni dati da clock elevati, che l'on die ecc sia parte del jedec non prova nulla, anche prima delle g7 c'era e non c'era un decadimento delle prestazioni dato da alti clock.

Se spari le memorie a 1000 puoi prendere quei 30MHz sul clock, ma il più delle volte non compensano i +2000 di differenza. Quindi, salvo rarissimi casi, ha senso eccome portarle alle 3000 sulle g7 (tanto più sulla 5080 che in realtà è downcloccata sulle mem di default).

Portami un caso in cui avere le mem a 3000 peggiora bench o game rispetto le mem a 1000. Ti direi vulkan, ma non troveresti nulla a riguardo perchè per l'appunto non accade.

io sono calmissimo, ci mancherebbe.
ti ho semplicemente dato evidenza che come dimostrazione di un contraddittorio hai portato alcuni dati "cruciali" sbagliati. :)

ti invito anche a rileggere quanto da me scritto una seconda volta,
siamo d'accordo che tra 1000 e 3000 c'è sempre (almeno credo) un vantaggio sui +3000,
non sempre è vero tra 2000 e 3000, soprattutto sulle 5090 dove le memorie sono maggiormente stressate.

cmq per me il discorso si può chiudere qui, direi che i punti di vista sono stati ampiamente sviscerati.

Gigibian
22-10-2025, 22:37
Prima cosa datti una calmata e fatti un bagno di umiltà, non sai mai chi hai dall'altra parte e per una discussione proficua sarebbe meglio cambiassi atteggiamento.

Detto questo, non stavamo parlando di standard e non ha senso tirare fuori la differenza tra on-die ed ecc puro. Ricordo che si parlava di impatti negativi alle prestazioni dati da clock elevati, che l'on die ecc sia parte del jedec non prova nulla, anche prima delle g7 c'era e non c'era un decadimento delle prestazioni dato da alti clock.

Se spari le memorie a 1000 puoi prendere quei 30MHz sul clock, ma il più delle volte non compensano i +2000 di differenza. Quindi, salvo rarissimi casi, ha senso eccome portarle alle 3000 sulle g7 (tanto più sulla 5080 che in realtà è downcloccata sulle mem di default).

Portami un caso in cui avere le mem a 3000 peggiora bench o game rispetto le mem a 1000. Ti direi vulkan, ma non troveresti nulla a riguardo perchè per l'appunto non accade.


Quello che dice BitCrafter è corretto, ed è facile dimostrarlo.
Succede spesso, soprattutto sulle Radeon.

Basta usare questo tool:

https://github.com/GpuZelenograd/memtest_vulkan

E si vede, dal test che feci sulla 9070XT, come le RAM a 2800 sono più incostanti ed alla fine risultano più lente rispetto alle ram a 2700 mhz.

2700 mhz:
https://i.ibb.co/gbvp2BCn/2700-SLOW.png (https://ibb.co/gbvp2BCn)

2800 mhz:
https://i.ibb.co/ZRdsdpLv/2800-SLOW.png (https://ibb.co/ZRdsdpLv)

Infatti a 2700 le velocità della RAM sono costanti a 544 GB/sec.
Mentre a 2800 partono a 550 GB/sec, e poi in pochi run scendono a 450 GB/s. ( Il secondo screen poi ho interrotto io il test, era inutile andare avanti, si vedeva già che non era stabile).

NESSUN ERRORE RILEVATO pero'! :)

Questo perchè, l'ECC della GDDR non ti fa vedere effettivamente che ci sia un errore in VRAM (ovvero artefatti nel framebuffer video) in quanto l'errore viene corretto forzando la GPU ad accessi > 1 verso la DDR.

Sostanzialmente difficilmente avrai errori o corruzioni, ma salendo troppo di frequenza il primo problema che ottieni è un peggioramento delle performance. Solo quando c'è più di un tot numero di errori e non sono più corregibili, ALLORA, inizi ad avere artefatti e problemi.

Ma se aspettate di avere errori di questo o quel tipo è inutile, dovete monitorare le performance per essere sicuri di essere stabili e non fare casini.

Io ad esempio sulla 5080 in firma, facendo "n" bench sequenziali di Steel Nomad, dopo un prim run di warm-up, ed essendo attento a far passare sempre circa 2 minuti tra un bench e l'altro, vedo chiaramente che sopra i +2650 sulle memorie, le performance scendono in maniera evidente.

quello che dici tu è l'ECC che è opzionale,

l'on-die ECC fa parte dello standard JEDEC e non è opzionale,
senza l'on-die ECC le DDR5 e 6 non potrebbero esistere come le conosciamo ora.

e poi l'on-die ecc non è un protocollo,
aggiungo che i produttori possono solo scegliere come implementare il controllo di parità,
ma per chiamarle DDR5 o 6, devono implementare e attivare per forza il controllo dell'errore visto che lo impone JEDEC.

va bene contraddirmi, però portiamo sostanza.

facciamola facile e tagliamo la testa al toro,
spararle a 3000 ha senso solo se le performance non calano ;)

ESATTO. :)

Dono89 forse non hai compreso che quando sostieni che "Il fatto che da protocollo ci sia l'ecc non significa che sia abilitato." stai sbagliando in quanto come ti ha spiegato BitCrafter: " l'on-die ECC fa parte dello standard JEDEC e non è opzionale".
Quindi non ha senso da parte tua rispondere "Detto questo, non stavamo parlando di standard" perchè è proprio il topic di cui stavate parlando :)

mikael84
23-10-2025, 01:45
Calmiamoci prima di tutto.;)
Non so se avete mai benchato ai tempi il vecchio unigine o il valley, un bench in cui serviva un lavoro maniacale sulle ram, e chi ha AMD era, ed è tutt'ora più limitato senza poter aver accesso alla tensione.
Aumentare la tensione delle ram, può essere benevole ma è bloccato.
Unigine era un bench, basato sul backfaceculling, e sfruttava intensamente le pipeline del polymorph engine, secondo stadio e stadio finale z-cull.

Quando si spingono al massimo le ram, non sempre avviene un crash, ma il controller invia un comando di lettura/scrittura alla vram, ed entra in ballo l'on die ecc, se questo non combaccia (es: 01010110 vs 0101) il controller chiede il rinvio dei dati, finchè non esce pulito, e questo può causare rallentamenti minimi o anche grossi.

Se dai vostri test, da +2000 a +3000 migliora tutto lasciatelo, perchè non aumentando la tensione, salvo calore, non succede nulla, tuttavia, consiglio sempre un minimo di OC, perchè le GPU hanno latenze molto alte, che possono superare anche i 200ns.

E' un argomento, ai tempi molto, ma molto discusso sui forum tecnici di AMD, e sul relativo bench, che purtroppo è andato perduto.


Quello che dice BitCrafter è corretto, ed è facile dimostrarlo.
Succede spesso, soprattutto sulle Radeon.

Basta usare questo tool:

https://github.com/GpuZelenograd/memtest_vulkan

E si vede, dal test che feci sulla 9070XT, come le RAM a 2800 sono più incostanti ed alla fine risultano più lente rispetto alle ram a 2700 mhz.



Infatti a 2700 le velocità della RAM sono costanti a 544 GB/sec.
Mentre a 2800 partono a 550 GB/sec, e poi in pochi run scendono a 450 GB/s. ( Il secondo screen poi ho interrotto io il test, era inutile andare avanti, si vedeva già che non era stabile).





Con AMD, devi sapertela giocare, anche con il mhz.

Cmq 2800/22,4, mi è andata meglio.
https://i.postimg.cc/6pJvT1Vf/mem.png

BitCrafter
23-10-2025, 07:51
Calmiamoci prima di tutto.;)
Non so se avete mai benchato ai tempi il vecchio unigine o il valley, un bench in cui serviva un lavoro maniacale sulle ram, e chi ha AMD era, ed è tutt'ora più limitato senza poter aver accesso alla tensione.
Aumentare la tensione delle ram, può essere benevole ma è bloccato.
Unigine era un bench, basato sul backfaceculling, e sfruttava intensamente le pipeline del polymorph engine, secondo stadio e stadio finale z-cull.

Quando si spingono al massimo le ram, non sempre avviene un crash, ma il controller invia un comando di lettura/scrittura alla vram, ed entra in ballo il Cyclic Redundancy Check (CRC), se questo non combaccia (es: 01010110 vs 0101) il controller chiede il rinvio dei dati, finchè non esce pulito, e questo può causare rallentamenti minimi o anche grossi.

Se dai vostri test, da +2000 a +3000 migliora tutto lasciatelo, perchè non aumentando la tensione, salvo calore, non succede nulla, tuttavia, consiglio sempre un minimo di OC, perchè le GPU hanno latenze molto alte, che possono superare anche i 200ns.

E' un argomento, ai tempi molto, ma molto discusso sui forum tecnici di AMD, e sul relativo bench, che purtroppo è andato perduto.




Con AMD, devi sapertela giocare, anche con il mhz.

Cmq 2800/22,4, mi è andata meglio.
https://i.postimg.cc/6pJvT1Vf/mem.png

Quello che dici tu è giusto ma il CRC è visibile lato software e quindi è possibile capire quando entra. Io sto parlando di on-die ecc e quindi delle basi del funzionamento delle attuali DDR.

mikael84
23-10-2025, 12:58
Quello che dici tu è giusto ma il CRC è visibile lato software e quindi è possibile capire quando entra. Io sto parlando di on-die ecc e quindi delle basi del funzionamento delle attuali DDR.

Ma tu stai parlando di ECC, non di on-die ECC, perchè L’on-die ECC della GPU agisce internamente alla VRAM o al controller della memoria integrato nella GPU.
On die ecc, è una sorta di filtro diciamo che lavora finchè il dato non esca internamente pulito, per questo ti ho fatto l'esempio di: bit 1) 10101010 e 1010, in queste condizioni, si limita a correggere il dato, finchè non esce come al livello 1.

GLi stessi programmi come il memtest vulkan, leggono i dati già filtrati, corretti e puliti.

BitCrafter
23-10-2025, 14:27
Ma tu stai parlando di ECC, non di on-die ECC, perchè L’on-die ECC della GPU agisce internamente alla VRAM o al controller della memoria integrato nella GPU.
On die ecc, è una sorta di filtro diciamo che lavora finchè il dato non esca internamente pulito, per questo ti ho fatto l'esempio di: bit 1) 10101010 e 1010, in queste condizioni, si limita a correggere il dato, finchè non esce come al livello 1.

GLi stessi programmi come il memtest vulkan, leggono i dati già filtrati, corretti e puliti.

CRC != ECC != On-die ECC
a me è chiaro

chi ha voglia può rileggere i miei post, c'è scritto tutto, basta leggerli e capirli, non mi sembra di aver scritto castronerie.
se ne ho scritte, felice di essere corretto e di imparare qualcosa di nuovo.

BMWZ8
23-10-2025, 14:35
Ciao a tutti. Quanti di voi stanno aspettando il nuovo dispositivo Ampinel di Aquacomputer? Pare la soluzione definitiva ai problemi del connettore . Già recensito su Igor's lab

BitCrafter
23-10-2025, 14:48
Ciao a tutti. Quanti di voi stanno aspettando il nuovo dispositivo Ampinel di Aquacomputer? Pare la soluzione definitiva ai problemi del connettore . Già recensito su Igor's lab

questo connettore è come l'alcol.
ormai si fa terrorismo gratuito e senza motivo.

i nostri nonni hanno bevuto tutti i giorni per 70 anni,
oggi scopriamo che una birra al mese ci uccide.

la stessa cosa per i connettori, hanno venduto milioni di schede, qualche scheda si è bruciata e tutti a morire di paura, come tra l'altro se non esistessero le garanzie.

io personalmente, uso la mia GPU come ho fatto con tutte le altre prima

BMWZ8
23-10-2025, 14:54
Non mi baso tanto sulle esperienze degli utenti e relative foto di connettori, quanto sulle prove dei laboratori che ben conosciamo, non serve polemizzare sull'evidente.

Quel connettore è come la corazzata kotionkin. E io sono ben disposto ad investire nella tranquillità di usare la scheda al massimo della capacità, cosa che dovrebbe essere garantita di default ma vabbè, ripeto lascio da parte le polemiche

mikael84
23-10-2025, 14:55
CRC != ECC != On-die ECC
a me è chiaro

chi ha voglia può rileggere i miei post, c'è scritto tutto, basta leggerli e capirli, non mi sembra di aver scritto castronerie.
se ne ho scritte, felice di essere corretto e di imparare qualcosa di nuovo.

Ma si discute, per carità.
Solo che non mi torna, ciò che hai scritto del on die ecc delle gddr, perchè quello opera all'interno della vram, e non può essere visto dal software, il quale legge solo dati puliti, esempio proprio 10110100 con 1010 o 1100. Qua l'on die deve correggere 2 dati, quindi si perde del tempo e latenza, come può succedere impostando +2000 o +3000. Il segnale deve uscire pulito.

Il CRC con corregge gli errori, ma li rileva e segnala.

L'ECC, che usi nelle work, negli epyc o anche nella 5090, è un tantino diverso, infatti se lo attivi i punteggi vedi come scendono...

FrancoBit
23-10-2025, 15:15
Ciao a tutti. Quanti di voi stanno aspettando il nuovo dispositivo Ampinel di Aquacomputer? Pare la soluzione definitiva ai problemi del connettore . Già recensito su Igor's lab

In teoria dovrebbe essere disponibile entro fine anno, occhio a verificare bene che sia compatibile col tuo modello di GPU, magari chiedendo a loro prima di acquistare. Pare ad esempio che su alcuni waterblock non sia inseribile correttamente...

razor820
23-10-2025, 15:26
Domandina a volo. Per chi ha comprato la serie 50xx Fe dal sito nvidia. La fattura vi è arrivata subito? Fattura sempre ldcl?

Sono circa 10 giorni, e a parte la notifica ups di avvenuta consegna, e l ordine evaso dal sito nvidia, non ho ricevuto nessuna e-mail con la fattura.
Ho contattato l assistenza nvidia, mi hanno detto di aspettare. Già son passati 10 giorni, loro inizialmente mi avevano detto che la tempistica era di 1-2 giorni lavorativi.

A questo punto forse dovrei contattare direttamente ldcl?

Tra L altro non avendo la fattura e il codice bundle, non posso nemmeno riscattare il gioco ARC RIDERS. Che sono molto interessato

Gigibian
23-10-2025, 15:31
Ma si discute, per carità.
Solo che non mi torna, ciò che hai scritto del on die ecc delle gddr, perchè quello opera all'interno della vram, e non può essere visto dal software, il quale legge solo dati puliti, esempio proprio 10110100 con 1010 o 1100. Qua l'on die deve correggere 2 dati, quindi si perde del tempo e latenza, come può succedere impostando +2000 o +3000. Il segnale deve uscire pulito.

Il CRC con corregge gli errori, ma li rileva e segnala.

L'ECC, che usi nelle work, negli epyc o anche nella 5090, è un tantino diverso, infatti se lo attivi i punteggi vedi come scendono...

Il punto é che l'on DIE ECC, se la VRAM inizia ad essere instabile, corregge gli errori automaticamente facendoti perdere cicli GPU e quindi performance SENZA che questo sia visibile dal SW come errore.

Quindi, tornando al topic iniziale, sparare la VRAM a +3000 é sbagliato senza analizzare l'andamento delle performance. Io a 2650 vado più forte che a 3000.

Madara76
23-10-2025, 15:36
Domandina a volo. Per chi ha comprato la serie 50xx Fe dal sito nvidia. La fattura vi è arrivata subito? Fattura sempre ldcl?

Sono circa 10 giorni, e a parte la notifica ups di avvenuta consegna, e l ordine evaso dal sito nvidia, non ho ricevuto nessuna e-mail con la fattura.
Ho contattato l assistenza nvidia, mi hanno detto di aspettare. Già son passati 10 giorni, loro inizialmente mi avevano detto che la tempistica era di 1-2 giorni lavorativi.

A questo punto forse dovrei contattare direttamente ldcl?

Tra L altro non avendo la fattura e il codice bundle, non posso nemmeno riscattare il gioco ARC RIDERS. Che sono molto interessato

Mi sono appena accorto di non aver ricevuto alcuna fattura, è circa un mese.

mikael84
23-10-2025, 15:49
Il punto é che l'on DIE ECC, se la VRAM inizia ad essere instabile, corregge gli errori automaticamente facendoti perdere cicli GPU e quindi performance SENZA che questo sia visibile dal SW come errore.

Quindi, tornando al topic iniziale, sparare la VRAM a +3000 é sbagliato senza analizzare l'andamento delle performance. Io a 2650 vado più forte che a 3000.

Bingo.;)

Dono89
23-10-2025, 15:52
Il punto é che l'on DIE ECC, se la VRAM inizia ad essere instabile, corregge gli errori automaticamente facendoti perdere cicli GPU e quindi performance SENZA che questo sia visibile dal SW come errore.

Quindi, tornando al topic iniziale, sparare la VRAM a +3000 é sbagliato senza analizzare l'andamento delle performance. Io a 2650 vado più forte che a 3000.

Sono pagine che lo chiedo :)

Mi fai vedere un test in cui a 2600 vai meglio che a 3000? Immagino lo scostamento non sia ovviamente nel margine di errore

Cutter90
23-10-2025, 16:18
Ciao a tutti. Quanti di voi stanno aspettando il nuovo dispositivo Ampinel di Aquacomputer? Pare la soluzione definitiva ai problemi del connettore . Già recensito su Igor's lab

La soluzione definitiva al problema del connettore? Io direi più ennesimo ammenicolo inutile venduto per marketing e /o paranoici. Il "problema al connettore è in una % trascurabile di utenza. Non solo, il problema o salta fuori subito o non salta fuori mai più. Non è un problema "progressivo". Quando attacchi la vga e gli spari 600 watt per 1 ora o si fonde in quel momento oppure non lo farà mai più. Che sia perchè i pin sono rientrati ( e se non lo sono il connettore non verrà più tolto e rimesso) o perchè l'alimentatore spara la corrente sbagliata a 1 dei pin (l'alimentatore avrà sempre gli stessi picchi.)
Non è un caso, infatti che non se ne parli più. Chi aveva il problema l ha avuto subito. Per me non ha alcun senso attaccare altra roba

Gigibian
23-10-2025, 16:54
Sono pagine che lo chiedo :)

Mi fai vedere un test in cui a 2600 vai meglio che a 3000? Immagino lo scostamento non sia ovviamente nel margine di errore

Ti ho postato gli screen prima. 2800 senza errori velocità più basse di 2700 senza errori.

Cutter90
23-10-2025, 16:57
Ti ho postato gli screen prima. 2800 senza errori velocità più basse di 2700 senza errori.

Però parliamo di velocità sintetiche e in Vulkan. Molto poco per tirare delle somme. Inoltre come si fa a sapere che non è vga dipendente la velocità e/o la stabilità? Perchè se è variabile allora tanto vale metterle a 3000. Servirebbero FPS in più giochi.

Gigibian
23-10-2025, 17:12
Però parliamo di velocità sintetiche e in Vulkan. Molto poco per tirare delle somme. Inoltre come si fa a sapere che non è vga dipendente la velocità e/o la stabilità? Perchè se è variabile allora tanto vale metterle a 3000. Servirebbero FPS in più giochi.

e' tutto quello che conta,
Vai a vedere proprio come la banda della VRAM si abbassa all'aumentare della frequenza (2800 vs 2700) senza avere errori!

razor820
23-10-2025, 17:12
Mi sono appena accorto di non aver ricevuto alcuna fattura, è circa un mese.


Assurdo. Hai provato a chiedere? Quindi nemmeno il codice del gioco da riscattare

petru916
23-10-2025, 17:21
Assurdo. Hai provato a chiedere? Quindi nemmeno il codice del gioco da riscattare

Io ricordo che la con la 4070S la fattura me l'inviarono il giorno seguente alla spedizione, proverei a insistere con Nvidia o direttamente con LDLC a questo punto.

ninja750
23-10-2025, 17:21
Ciao a tutti. Quanti di voi stanno aspettando il nuovo dispositivo Ampinel di Aquacomputer? Pare la soluzione definitiva ai problemi del connettore . Già recensito su Igor's lab

ieri

https://www.hwupgrade.it/news/skvideo/gpu-da-2000-condannata-a-morte-dal-cavo-il-connettore-16-pin-continua-a-fare-vittime_145201.html

3 giorni fa

https://www.reddit.com/r/pcmasterrace/comments/1obwj09/another_5090_down_in_flames/

5 giorni fa

https://videocardz.com/newz/sapphire-radeon-rx-9070-xt-nitro-reportedly-suffers-first-melted-12v-2x6-connector-case

13 giorni fa

https://www.reddit.com/r/pcmasterrace/comments/1o33p2b/psucaused_12vhpwr_meltdown_destroyed_my_highend_pc/

17 giorni fa (doppia bruciatura)

https://www.reddit.com/r/pcmasterrace/comments/1o00czm/update_5090_melted_again/

1 mese fa

https://www.reddit.com/r/pcmasterrace/comments/1no4qjr/12vhpwr_melted_my_new_5070/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1n3s1g6/my_5090_12v_msi_cable_just_melted_at_the_connector/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1n9zvv8/5070_ti_can_melt/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1mulh8y/so_this_just_happened/

..

Dono89
23-10-2025, 17:37
Ti ho postato gli screen prima. 2800 senza errori velocità più basse di 2700 senza errori.

Siamo nel 3d delle 5000 e hai postato due screen della 9070 xt. La 9070 xt ha le g6, le 5000 le g7...sono due memorie differenti

Evilquantico
23-10-2025, 17:39
Siamo nel 3d delle 5000 e hai postato due screen della 9070 xt. La 9070 xt ha le g6, le 5000 le g7...sono due memorie differenti

Appunto state discutendo di Memorie ECC non di GPU , g6 g7 non importa la discussione è l'ECC quindi è perfettamente in argomento

Dono89
23-10-2025, 17:43
Appunto state discutendo di Memorie ECC non di GPU quindi è perfettamente in argomento

è come dire che abbiamo una cpu con 3d cache amd e una cpu con 20 core intel e parlare di pbo su un 20 core intel. Non c'entra nulla di nulla.
Stiamo discutendo di memorie che utilizzano codifiche totalmente differenti, operano a frequenze diverse e si correggono in modo diverso. Non è che le g5 operano come le g7 eh. Ad esempio sulle G6x c'è un EDR che è fatto appositamente ed è specifico sulle g6x. Non ha senso mischiare le discussioni.

Quindi o mi portate un esempio in cui una 5080 o 5070 ti o quello che è peggiora con mem a 3000 o la discussione è inutile

razor820
23-10-2025, 17:44
Io ricordo che la con la 4070S la fattura me l'inviarono il giorno seguente alla spedizione, proverei a insistere con Nvidia o direttamente con LDLC a questo punto.


Sì anche a me con la serie 30 e 40. Mah.

bagnino89
23-10-2025, 18:06
Assurdo. Hai provato a chiedere? Quindi nemmeno il codice del gioco da riscattareIo ho ricevuto la fattura. 5070 FE.

Madara76
23-10-2025, 18:50
Assurdo. Hai provato a chiedere? Quindi nemmeno il codice del gioco da riscattareNon ho chiesto perché me ne sono accorto solo oggi. La mia era in bundle con Borderlands e l'ho riscattato tranquillamente.

Inviato dal mio Pixel 9 Pro XL utilizzando Tapatalk

BMWZ8
23-10-2025, 18:53
La soluzione definitiva al problema del connettore? Io direi più ennesimo ammenicolo inutile venduto per marketing e /o paranoici. Il "problema al connettore è in una % trascurabile di utenza. Non solo, il problema o salta fuori subito o non salta fuori mai più. Non è un problema "progressivo". Quando attacchi la vga e gli spari 600 watt per 1 ora o si fonde in quel momento oppure non lo farà mai più. Che sia perchè i pin sono rientrati ( e se non lo sono il connettore non verrà più tolto e rimesso) o perchè l'alimentatore spara la corrente sbagliata a 1 dei pin (l'alimentatore avrà sempre gli stessi picchi.)
Non è un caso, infatti che non se ne parli più. Chi aveva il problema l ha avuto subito. Per me non ha alcun senso attaccare altra roba

beato te che hai la verità in tasca.
io alla luce degli approfondimenti fatti , voglio la tranquillità assoluta. le negligenze di Nvidia o del consorzio del connettore o di chi si voglia, (al netto di quelle dell'utente ovviamente)hanno portato a dei danni piuttosto evidenti, data la fragilità del connettore e la sua natura di lavorare vicino al suo limite fisico.


io un affare che monitora tutto e in hardware fa load balancing, e in extremis lancia allarmi fino a spegnere il pc, per 90 euro me lo prendo.

è un pò come comprare una Ferrari e dover passare dal meccanico a coibentare lo scarico sennò prende fuoco la macchina.
dai, hanno cappellato.

io per dire sentivo un leggero coil whine dalla scheda in certi contesti.

ho preso sto cavo, l'originale be-quiet. l'alimentatore è 1000w bequiet certificato 3.1 platinum. ho tagliato le fascette, ho tolto la guaina di avvolgimento, i cavi singoli stanno molto più liberi e lenti e c'è meno tensione. guarda caso il coil whine è sparito. la curva della ventola l'ho aumentata e il connettore anche sotto carico pesante rimane bello fresco.

e tutto ciò potrebbe non bastare. i pin sono così delicati che basta la deformazione termica a mandare tutto in vacca.

ma ti pare che vanno fatte queste seghe qui? dici oh , hai comprato na ciofeca usata . dai è inaccettabile.

BMWZ8
23-10-2025, 18:55
ieri

https://www.hwupgrade.it/news/skvideo/gpu-da-2000-condannata-a-morte-dal-cavo-il-connettore-16-pin-continua-a-fare-vittime_145201.html

3 giorni fa

https://www.reddit.com/r/pcmasterrace/comments/1obwj09/another_5090_down_in_flames/

5 giorni fa

https://videocardz.com/newz/sapphire-radeon-rx-9070-xt-nitro-reportedly-suffers-first-melted-12v-2x6-connector-case

13 giorni fa

https://www.reddit.com/r/pcmasterrace/comments/1o33p2b/psucaused_12vhpwr_meltdown_destroyed_my_highend_pc/

17 giorni fa (doppia bruciatura)

https://www.reddit.com/r/pcmasterrace/comments/1o00czm/update_5090_melted_again/

1 mese fa

https://www.reddit.com/r/pcmasterrace/comments/1no4qjr/12vhpwr_melted_my_new_5070/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1n3s1g6/my_5090_12v_msi_cable_just_melted_at_the_connector/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1n9zvv8/5070_ti_can_melt/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1mulh8y/so_this_just_happened/

..



ecco appunto

Alekos Panagulis
23-10-2025, 19:02
La soluzione definitiva al problema del connettore? Io direi più ennesimo ammenicolo inutile venduto per marketing e /o paranoici. Il "problema al connettore è in una % trascurabile di utenza. Non solo, il problema o salta fuori subito o non salta fuori mai più. Non è un problema "progressivo". Quando attacchi la vga e gli spari 600 watt per 1 ora o si fonde in quel momento oppure non lo farà mai più. Che sia perchè i pin sono rientrati ( e se non lo sono il connettore non verrà più tolto e rimesso) o perchè l'alimentatore spara la corrente sbagliata a 1 dei pin (l'alimentatore avrà sempre gli stessi picchi.)
Non è un caso, infatti che non se ne parli più. Chi aveva il problema l ha avuto subito. Per me non ha alcun senso attaccare altra robaDirei che a naso mi fido di più di Derbauer e di Steve Burke che di te. :asd:

Inviato dal mio 24129PN74G utilizzando Tapatalk

BMWZ8
23-10-2025, 19:05
In teoria dovrebbe essere disponibile entro fine anno, occhio a verificare bene che sia compatibile col tuo modello di GPU, magari chiedendo a loro prima di acquistare. Pare ad esempio che su alcuni waterblock non sia inseribile correttamente...



ci sto parlando. sembra non avere problemi con la mia scheda ma al contrario andrebbe a toccare il dissipatore della cpu che è un noctua nh u12a. quando mi arriva , vedrò se cambiare dissipatore o sposare la ventola o altro. speriamo vada tutto bene

Cutter90
23-10-2025, 19:23
Direi che a naso mi fido di più di Derbauer e di Steve Burke che di te. :asd:

Inviato dal mio 24129PN74G utilizzando Tapatalk

Ma guarda che mica ho detto che non serve o che non sia "valido" nella sua funzione. Ho detto che ORA è abbastanza inutile secondo me e i motivi che ho elencato è quello che succede eh. Non è questione di fiducia. I motivi per cui avviene la fusione, rarissssssima, del connettore li sappiamo. E sono quelli che ho ricordato.
Dopodichè ognuno fa le sue scelte :)

Ed ecco che riparte la paranoia del cavo. Ormai è una cosa ciclica

dAbOTZ
23-10-2025, 19:36
*cut*



Grazie, ero giusto alla ricerca di un caso dove NON fosse stato usato un adattatore ma connessione diretta fra i due 12VHPWR sia lato GPU sia lato PSU, questo:

https://www.reddit.com/r/pcmasterrace/comments/1o33p2b/psucaused_12vhpwr_meltdown_destroyed_my_highend_pc/

Questo evidenzia che anche collegando tutto come da copione senza accrocchi, rispettando le specifiche per cui il connettore è stato studiato, capita lo stesso.

Cutter90
23-10-2025, 19:49
Grazie, ero giusto alla ricerca di un caso dove NON fosse stato usato un adattatore ma connessione diretta fra i due 12VHPWR sia lato GPU sia lato PSU, questo:

https://www.reddit.com/r/pcmasterrace/comments/1o33p2b/psucaused_12vhpwr_meltdown_destroyed_my_highend_pc/

Questo evidenzia che anche collegando tutto come da copione senza accrocchi, rispettando le specifiche per cui il connettore è stato studiato, capita lo stesso.
Si ma qui la colpa è dell ali ad esempio, visto che si è fuso alla base dell ali stesso.
In un altro caso visto nel post di Ninja uno dice che gli si è fuso in indle.in indle passano 70 watt di è no. Come cavolo fa elettricamente a fare un problema simile? O è meccanico oppure c'è qualcosa di difettoso,come l alimentatore o la vga stessa.
Ho visto anche gli altri e ci sono adattatori fusi, situazioni poco chiare, alimentatori che hanno palesemente causato loro il problema, come il tizio che ne dice di averne fuse 2 di 5090 ( e ci credo il giusto). Lì è al 100% colpa di un montaggio errato e /o dell ali ..

BMWZ8
23-10-2025, 20:08
gli adattatori li mettono nelle scatole. per cui vuol dire che sono approvati sia dai produttori che da nvidia.


non esiste che siano gli utenti a doversi accorgere che sono più propensi a fondersi a loro spese.

nvidia ha toppato. vuoi per arroganza, vuoi per inettitudine, ha toppato e basta. in nessun caso in nessun settore si usa roba che lavora così vicino al limite fisico senza lasciare abbondanti margini di sicurezza.

se nei forum andiamo nemmeno troppo velatamente a sminuire le responsabilità di chi del consumatore se ne è sbattuto, vuol dire che questo ci meritiamo.


io comunque per ora tiro avanti bene, ho messo anche su hwinfo i volts del 12vhpwr per vedere se ci sono cali. pare che fino a 11.5 vada tutto ok, dopo c'è da iniziare a preoccuparsi. la mia non si muove dai 12-12.5 mi sembra stiamo li

BitCrafter
23-10-2025, 21:00
Ma si discute, per carità.
Solo che non mi torna, ciò che hai scritto del on die ecc delle gddr, perchè quello opera all'interno della vram, e non può essere visto dal software, il quale legge solo dati puliti, esempio proprio 10110100 con 1010 o 1100. Qua l'on die deve correggere 2 dati, quindi si perde del tempo e latenza, come può succedere impostando +2000 o +3000. Il segnale deve uscire pulito.

Il CRC con corregge gli errori, ma li rileva e segnala.

L'ECC, che usi nelle work, negli epyc o anche nella 5090, è un tantino diverso, infatti se lo attivi i punteggi vedi come scendono...

si certo ci mancherebbe,
perdonami ma io non ho mai detto che l'on-die ecc può essere visto dal software :)
è il CRC di cui parlavi tu che può essere visto dal software ma il CRC non c'entra niente con l'on-die ecc.

BitCrafter
23-10-2025, 21:00
Il punto é che l'on DIE ECC, se la VRAM inizia ad essere instabile, corregge gli errori automaticamente facendoti perdere cicli GPU e quindi performance SENZA che questo sia visibile dal SW come errore.

Quindi, tornando al topic iniziale, sparare la VRAM a +3000 é sbagliato senza analizzare l'andamento delle performance. Io a 2650 vado più forte che a 3000.

pulito è cristallino :)

BitCrafter
23-10-2025, 21:01
ieri

https://www.hwupgrade.it/news/skvideo/gpu-da-2000-condannata-a-morte-dal-cavo-il-connettore-16-pin-continua-a-fare-vittime_145201.html

3 giorni fa

https://www.reddit.com/r/pcmasterrace/comments/1obwj09/another_5090_down_in_flames/

5 giorni fa

https://videocardz.com/newz/sapphire-radeon-rx-9070-xt-nitro-reportedly-suffers-first-melted-12v-2x6-connector-case

13 giorni fa

https://www.reddit.com/r/pcmasterrace/comments/1o33p2b/psucaused_12vhpwr_meltdown_destroyed_my_highend_pc/

17 giorni fa (doppia bruciatura)

https://www.reddit.com/r/pcmasterrace/comments/1o00czm/update_5090_melted_again/

1 mese fa

https://www.reddit.com/r/pcmasterrace/comments/1no4qjr/12vhpwr_melted_my_new_5070/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1n3s1g6/my_5090_12v_msi_cable_just_melted_at_the_connector/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1n9zvv8/5070_ti_can_melt/

2 mesi fa

https://www.reddit.com/r/pcmasterrace/comments/1mulh8y/so_this_just_happened/

..

ok su quanti milioni di schede vendute? ma poi voglio dire se capita stic@zzi, la mando in assistenza e amen.

dAbOTZ
23-10-2025, 21:05
Si ma qui la colpa è dell ali ad esempio, visto che si è fuso alla base dell ali stesso.
In un altro caso visto nel post di Ninja uno dice che gli si è fuso in indle.in indle passano 70 watt di è no. Come cavolo fa elettricamente a fare un problema simile? O è meccanico oppure c'è qualcosa di difettoso,come l alimentatore o la vga stessa.
Ho visto anche gli altri e ci sono adattatori fusi, situazioni poco chiare, alimentatori che hanno palesemente causato loro il problema, come il tizio che ne dice di averne fuse 2 di 5090 ( e ci credo il giusto). Lì è al 100% colpa di un montaggio errato e /o dell ali ..

O è proprio un limite strutturale del connettore. Alla fine il punto che si fonde è sempre il 12VHPWR, sia lato GPU che PSU. Anche in presenza di connettori 8-pin con adattatori, fonde sempre lui. Trovo un po' riduttivo pensare solo ad errore umano o hardware difettoso.

Peraltro si trattasse di errore umano, un connettore che deve reggere un tale assorbimento deve poter essere progettato con una connessione sicura e a prova di bomba, vogliamo almeno riconoscere che l'innesto faccia veramente cagare poteva essere studiato meglio?

mikael84
23-10-2025, 21:08
si certo ci mancherebbe,
perdonami ma io non ho mai detto che l'on-die ecc può essere visto dal software :)
è il CRC di cui parlavi tu che può essere visto dal software ma il CRC non c'entra niente con l'on-die ecc.

Ah, ora ho capito perchè non ci capivamo, nel primo post, ho scritto CRC, anzichè on die ecc.
Infatti mi pareva strano...

Cutter90
23-10-2025, 21:12
O è proprio un limite strutturale del connettore. Alla fine il punto che si fonde è sempre il 12VHPWR, sia lato GPU che PSU. Anche in presenza di connettori 8-pin con adattatori, fonde sempre lui. Trovo un po' riduttivo pensare solo ad errore umano o hardware difettoso.

Peraltro si trattasse di errore umano, un connettore che deve reggere un tale assorbimento deve poter essere progettato con una connessione sicura e a prova di bomba, vogliamo almeno riconoscere che l'innesto faccia veramente cagare poteva essere studiato meglio?
Doveva essere studiato meglio al 100%. Su questo non ci piove. Ma è un po' difficile per me dare la colpa al connettore e basta. Se è colpa del connettore perché non succede a tutti? Se è un problema meccanico è l utente il responsabile. Se un alimentatore non "sa" distribuire l alimentazione correttamente per me è colpa dell alimentazione e quindi delle case che fanno gli ali.

BitCrafter
23-10-2025, 22:32
Ah, ora ho capito perchè non ci capivamo, nel primo post, ho scritto CRC, anzichè on die ecc.
Infatti mi pareva strano...

ah ecco :) :ubriachi:

razor820
23-10-2025, 22:57
Non ho chiesto perché me ne sono accorto solo oggi. La mia era in bundle con Borderlands e l'ho riscattato tranquillamente.

Inviato dal mio Pixel 9 Pro XL utilizzando Tapatalk


Ma come ti è arrivato il codice? Se non ti è arrivata la fattura?

rintintin78
24-10-2025, 07:43
ho preso sto cavo, l'originale be-quiet. l'alimentatore è 1000w bequiet certificato 3.1 platinum. ho tagliato le fascette, ho tolto la guaina di avvolgimento, i cavi singoli stanno molto più liberi e lenti e c'è meno tensione. guarda caso il coil whine è sparito. la curva della ventola l'ho aumentata e il connettore anche sotto carico pesante rimane bello fresco.



Ciao,
ma tu hai un alimentatore be quite?
Ho visto che anche Corsair fa questi cavi, secondo te li si può mettere su un alimentatore MSI?
Grazie

Cfranco
24-10-2025, 07:46
Se è colpa del connettore perché non succede a tutti?

Perché il margine di sicurezza è basso, non assente
Quindi va bene il 99% delle volte, ma se c'è quello sbalzo di corrente, se per caso il filo per qualche motivo ha una resistenza un pelo più alta, se con la temperatura c'è qualche movimento, se una vibrazione muove un attimo la connessione ...
Finché tutto è in specifica funziona, ma i margini sono troppo stretti ed è facile finire fuori

BMWZ8
24-10-2025, 07:57
Ciao,
ma tu hai un alimentatore be quite?
Ho visto che anche Corsair fa questi cavi, secondo te li si può mettere su un alimentatore MSI?
Grazie

Si ho uno straight power 1000w
Direi di si, l'attacco è standard.

BitCrafter
24-10-2025, 07:59
Perché il margine di sicurezza è basso, non assente
Quindi va bene il 99% delle volte, ma se c'è quello sbalzo di corrente, se per caso il filo per qualche motivo ha una resistenza un pelo più alta, se con la temperatura c'è qualche movimento, se una vibrazione muove un attimo la connessione ...
Finché tutto è in specifica funziona, ma i margini sono troppo stretti ed è facile finire fuori
.
C'è qualche decina di schede bruciate a fronte di milioni vendute, a me non sembra facile.

Cfranco
24-10-2025, 08:12
.
C'è qualche decina di schede bruciate a fronte di milioni vendute, a me non sembra facile.

in questi campi anche lo 0.01% di difettosità è un numero enormemente alto

BitCrafter
24-10-2025, 08:52
in questi campi anche lo 0.01% di difettosità è un numero enormemente alto

infatti non si parla di percentuali ma di una manciata di schede.

Madara76
24-10-2025, 09:20
Ma come ti è arrivato il codice? Se non ti è arrivata la fattura?Mi è arrivato nella mail della spedizione.

Inviato dal mio Pixel 9 Pro XL utilizzando Tapatalk

Cutter90
24-10-2025, 10:18
Perché il margine di sicurezza è basso, non assente
Quindi va bene il 99% delle volte, ma se c'è quello sbalzo di corrente, se per caso il filo per qualche motivo ha una resistenza un pelo più alta, se con la temperatura c'è qualche movimento, se una vibrazione muove un attimo la connessione ...
Finché tutto è in specifica funziona, ma i margini sono troppo stretti ed è facile finire fuori

Ripeto, che sia tutto un po' "tirato" ci sta e sono il primo a dirlo. Però se c'è "lo sbalzo di corrente" è l'alimentatore che non deve darlo lo sbalzo.

BitCrafter
24-10-2025, 11:54
Ripeto, che sia tutto un po' "tirato" ci sta e sono il primo a dirlo. Però se c'è "lo sbalzo di corrente" è l'alimentatore che non deve darlo lo sbalzo.

che poi gli sbalzi non bruciano proprio niente, anche qui, basta avere un minimo concetto di elettricità :D

quello "sbalzo" deve essere n volte maggiore al carico normale per dare problemi su un cavo e ovviamente non è una cosa plausibile.

le bruciature in questo caso avvengono per stress prolungato del cavo, non per uno sbalzo.

per pochi secondi si possono far passare una vagonata di ampere in più su un cavo, figuriamoci per "uno sbalzo".
che poi, diciamocelo, sbalzo non significa proprio niente in termini tecnici :D

Mars95
24-10-2025, 12:46
Ripeto, che sia tutto un po' "tirato" ci sta e sono il primo a dirlo.

Non c'è altro da dire, è tutto li il problema.
È un connettore che tira massimo 600W, è certificato per 600W e ci fanno passare 600W e questa è una follia.
Se un connettore tira massimo 600W lo certifichi per 400W non di più.
Perché usato al massimo della sua capacità è in condizione critica, basta che un contatto sia un po' ossidato e gli altri superano la capacità massima e col tempo si squaglia.

Gigibian
24-10-2025, 13:30
che poi gli sbalzi non bruciano proprio niente, anche qui, basta avere un minimo concetto di elettricità :D

quello "sbalzo" deve essere n volte maggiore al carico normale per dare problemi su un cavo e ovviamente non è una cosa plausibile.

le bruciature in questo caso avvengono per stress prolungato del cavo, non per uno sbalzo.

per pochi secondi si possono far passare una vagonata di ampere in più su un cavo, figuriamoci per "uno sbalzo".
che poi, diciamocelo, sbalzo non significa proprio niente in termini tecnici :D

Esatto :)

Inoltre una 5090 ha un tdp di 575W. 75W sono erogati dallo slot pciexpress. Quindi il connettore dovrebbe erogare 500W, viene certificato per 600W con limite a 663W. Ci sono 163W di margine, direi che bastano :)

Riporto da articolo online:
"per l'intero connettore, con un carico di potenza massimo supportato di 662,4 W (600 W con le tolleranze)"

Poi se prendete schede custom da 800W, apparte l'evidente inutilità, preoccupatevi di prendere un alimentatore con un cavo apposito, con un diametro dei cavi più elevato.

BitCrafter
24-10-2025, 13:52
Non c'è altro da dire, è tutto li il problema.
È un connettore che tira massimo 600W, è certificato per 600W e ci fanno passare 600W e questa è una follia.
Se un connettore tira massimo 600W lo certifichi per 400W non di più.
Perché usato al massimo della sua capacità è in condizione critica, basta che un contatto sia un po' ossidato e gli altri superano la capacità massima e col tempo si squaglia.

ma figurati. questo è vero sui connettori cinesi, non certo su quello.
prendi una presa BTICINO da 1.5Kw, mettigli sopra 2Kw e dimmi che succede. niente, te lo dico io.

nella certificazione ci sono già i range di sicurezza.

BitCrafter
24-10-2025, 13:54
Esatto :)

Inoltre una 5090 ha un tdp di 575W. 75W sono erogati dallo slot pciexpress. Quindi il connettore dovrebbe erogare 500W, viene certificato per 600W con limite a 663W. Ci sono 163W di margine, direi che bastano :)

Riporto da articolo online:
"per l'intero connettore, con un carico di potenza massimo supportato di 662,4 W (600 W con le tolleranze)"

Poi se prendete schede custom da 800W, apparte l'evidente inutilità, preoccupatevi di prendere un alimentatore con un cavo apposito, con un diametro dei cavi più elevato.

ah ecco, lo hai scritto tu meglio di me.

Thunder-74
24-10-2025, 14:34
no.. dalla serie 4000 non vengono più erogati molti watt dal PCIe.
A parte che i 75W sono teorici, meno la tolleranza si ha un massimo di 65/66W, ma dalla serie 4000 , il PCie al max lo si vede arrivare a 10/12W.
Con letture precise, si sono osservati anche spike di oltre 900W (leggere articolo di Igor's lab in merito). Io con il WireView Pro ho letto uno spike di 746W sul 12vhpwr.

I 600W dal cavo si possono avere facili facili.

Se volete togliervi lo sfizio, tenete aperto HWinfo o GPUZ e osservate i consumi dallo slot e del connettore
https://www.techpowerup.com/img/eqUfVoGQW9zuOuLH.jpg

Gigibian
24-10-2025, 14:54
no.. dalla serie 4000 non vengono più erogati molti watt dal PCIe.
A parte che i 75W sono teorici, meno la tolleranza si ha un massimo di 65/66W, ma dalla serie 4000 , il PCie al max lo si vede arrivare a 10/12W.
Con letture precise, si sono osservati anche spike di oltre 900W (leggere articolo di Igor's lab in merito). Io con il WireView Pro ho letto uno spike di 746W sul 12vhpwr.

I 600W dal cavo si possono avere facili facili.

Se volete togliervi lo sfizio, tenete aperto HWinfo o GPUZ e osservate i consumi dallo slot e del connettore
https://www.techpowerup.com/img/eqUfVoGQW9zuOuLH.jpg

Gli Spike non contano nulla

Sono gli ampere medi di carico continuo sul cavo che lo fanno bruciare.

Cutter90
24-10-2025, 15:19
Gli Spike non contano nulla

Sono gli ampere medi di carico continuo sul cavo che lo fanno bruciare.

E' proprio questo il punto. I casi non raccontano questa storia. A quelli che gli si è bruciato raccontano addirittura di Inlde. Trovami un caso in cui dica " Era 1 ora che ci buttavo su 600 watt continui". Non c'è. La causa non è "logorante" è evidente. E' una cosa di alimentatori, cavi fallati, errori meccanici.
Quando si certifica la resistenza di un qualcosa mica lo si fa con il su carico "normale". In meccanica e in elettronica si testa e si certifica un prodotto X volte superiore al carico massimo.

I cavi le testeranno minimo minimo a 800 watt. Ma minimo.

Cfranco
24-10-2025, 15:26
che poi gli sbalzi non bruciano proprio niente, anche qui, basta avere un minimo concetto di elettricità :D

Possono causare modifiche alla conduttività del cavo, microbruciature al rivestimento, surriscaldamenti localizzati, che poi si ripercuotono e si amplificano

Ripeto, che sia tutto un po' "tirato" ci sta e sono il primo a dirlo. Però se c'è "lo sbalzo di corrente" è l'alimentatore che non deve darlo lo sbalzo.
L'alimentatore garantisce un certo margine ma non è assoluto, specie se l'assorbimento non è costante

Esatto :)

Inoltre una 5090 ha un tdp di 575W. 75W sono erogati dallo slot pciexpress. Quindi il connettore dovrebbe erogare 500W, viene certificato per 600W con limite a 663W. Ci sono 163W di margine, direi che bastano :)


Forse abbiamo idee diverse di "margine"
mettere un cavo certificato per 600W a portare 575W di tdp ( che possono includere picchi molto più elevati ) è un po' lo stesso "margine" di sicurezza che aveva il Titan di Oceangate

Antostorny
24-10-2025, 15:29
Giocando in 1440p a 144 Hz, la mia NVIDIA RTX 3080 da 10 GB comincia — devo ammetterlo per la prima volta — a mostrare i suoi limiti in Battlefield 6... e in parte è colpa mia perché gioco con tutti i dettagli al massimo e punto sempre a frame alti

Stavo pensando di fare un upgrade alla RTX 5080, ma vari rumor segnalano che verso fine anno/inizio 2026 potrebbe uscire la versione SUPER con 24 GB di VRAM, il che la renderebbe molto più “future-proof”, soprattutto in vista di risoluzioni più elevate.

Qualcuno è in attesa come me? Qual è la vostra opinione? Quando uscirà davvero questa nuova revisione?

Thunder-74
24-10-2025, 15:34
Gli Spike non contano nulla

Sono gli ampere medi di carico continuo sul cavo che lo fanno bruciare.

E chi ha parlato di questo? Ho risposto alla questione che sul cavo non arrivano i 600w.

ste-87
24-10-2025, 16:29
Giocando in 1440p a 144 Hz, la mia NVIDIA RTX 3080 da 10 GB comincia — devo ammetterlo per la prima volta — a mostrare i suoi limiti in Battlefield 6... e in parte è colpa mia perché gioco con tutti i dettagli al massimo e punto sempre a frame alti

Stavo pensando di fare un upgrade alla RTX 5080, ma vari rumor segnalano che verso fine anno/inizio 2026 potrebbe uscire la versione SUPER con 24 GB di VRAM, il che la renderebbe molto più “future-proof”, soprattutto in vista di risoluzioni più elevate.

Qualcuno è in attesa come me? Qual è la vostra opinione? Quando uscirà davvero questa nuova revisione?

provato a tenere il dlss e mettere il frame gen (FSR) di amd?

io ci ho messo una "pezza" così per arrivare alle 5080 Super da 24Gb, la fluidità aumenta e il frametime rimane regolare e basso in maniera coerente con gli fps

Cutter90
24-10-2025, 16:57
Giocando in 1440p a 144 Hz, la mia NVIDIA RTX 3080 da 10 GB comincia — devo ammetterlo per la prima volta — a mostrare i suoi limiti in Battlefield 6... e in parte è colpa mia perché gioco con tutti i dettagli al massimo e punto sempre a frame alti

Stavo pensando di fare un upgrade alla RTX 5080, ma vari rumor segnalano che verso fine anno/inizio 2026 potrebbe uscire la versione SUPER con 24 GB di VRAM, il che la renderebbe molto più “future-proof”, soprattutto in vista di risoluzioni più elevate.

Qualcuno è in attesa come me? Qual è la vostra opinione? Quando uscirà davvero questa nuova revisione?

Occhio che Battflefield è molto cpu intensive. E visto che non hai un cpu nuva occhio. Hai visto se la gpu sta fissa al 99% mentre giochi?

amon.akira
24-10-2025, 19:26
Non c'è altro da dire, è tutto li il problema.
È un connettore che tira massimo 600W, è certificato per 600W e ci fanno passare 600W e questa è una follia.
Se un connettore tira massimo 600W lo certifichi per 400W non di più.
Perché usato al massimo della sua capacità è in condizione critica, basta che un contatto sia un po' ossidato e gli altri superano la capacità massima e col tempo si squaglia.

chi ti ha detto che non ha già una tolleranza? ho visto flashare bios da 1000w e andare a 900w, se 600w era il limite fisico non avrebbe retto 900w

mikael84
24-10-2025, 20:10
chi ti ha detto che non ha già una tolleranza? ho visto flashare bios da 1000w e andare a 900w, se 600w era il limite fisico non avrebbe retto 900w

Perchè il picco massimo è di 13A.
In futuro potremmo anche vedere standard diversi, come il 15,5 o addirittura 14.

Mars95
24-10-2025, 21:57
chi ti ha detto che non ha già una tolleranza? ho visto flashare bios da 1000w e andare a 900w, se 600w era il limite fisico non avrebbe retto 900w

Ho letto le specifiche del connettore :read:

Mars95
24-10-2025, 21:59
ma figurati. questo è vero sui connettori cinesi, non certo su quello.
prendi una presa BTICINO da 1.5Kw, mettigli sopra 2Kw e dimmi che succede. niente, te lo dico io.

nella certificazione ci sono già i range di sicurezza.

È proprio questo che ho detto, normalmente un qualcosa certificato per un certo valore regge un buon 30 anche 50% in più.
Questo connettore no.

ste-87
24-10-2025, 22:38
comunque per curiosità:

visto che voi seguite la vicenda sicuramente più assiduamente, tutti i problemi di connettori bruciati sono su 5090? C'è qualcosa in giro su internet sulle 5080?

BMWZ8
24-10-2025, 23:40
comunque per curiosità:

visto che voi seguite la vicenda sicuramente più assiduamente, tutti i problemi di connettori bruciati sono su 5090? C'è qualcosa in giro su internet sulle 5080?

ci sono, come inizia a succedere anche alle 9070xt per la cronaca

amon.akira
25-10-2025, 00:21
Ho letto le specifiche del connettore :read:

certo pure gli 8pin sono max 150w e le gpu tirano 150w, è logico che indicherò sempre un safe spot per creare una specifica.

Mars95
25-10-2025, 00:54
certo pure gli 8pin sono max 150w e le gpu tirano 150w, è logico che indicherò sempre un safe spot per creare una specifica.

La specifica del connettore 8 pin porta una corrente superiore alla specifica del pcie power.
Cioè lo standard di alimentazione pcie dice che attraverso quel connettore puoi portare 150W quindi 12.5A, ma la specifica del costruttore del connettore indica molto di più, mi sembra quasi il doppio.

Per il connettore 12VHPWR invece siamo già al limite.

amon.akira
25-10-2025, 07:39
La specifica del connettore 8 pin porta una corrente superiore alla specifica del pcie power.
Cioè lo standard di alimentazione pcie dice che attraverso quel connettore puoi portare 150W quindi 12.5A, ma la specifica del costruttore del connettore indica molto di più, mi sembra quasi il doppio.

Per il connettore 12VHPWR invece siamo già al limite.

che sono 300w sdoppiato 2x150w, o nel caso di un ali scrauso 1x8 150w ma il risultato è lo stesso, andare al limite, ma il limite indicato secondo te è quello in cui fonde e diventa non sicuro? o viene scelto un limite safe sotto al vero limite fisico per una questione di sicurezza?

Mars95
25-10-2025, 10:36
che sono 300w sdoppiato 2x150w, o nel caso di un ali scrauso 1x8 150w ma il risultato è lo stesso, andare al limite, ma il limite indicato secondo te è quello in cui fonde e diventa non sicuro? o viene scelto un limite safe sotto al vero limite fisico per una questione di sicurezza?

Il limite fisico del connettore 12vhpwr è pericolosamente vicino ai 600W ci sono tanti indizi su questo.
Avevo trovato anche la resistenza di contatto dichiarata dei contatti di quel connettore, fatto due conti sulla corrente che ci fanno passare e si otteneva una potenza dissipata dal connettore abbastanza elevata e un connettore non è fatto per dissipare potenza.
Da qui basta che il contatto sia lievemente danneggiato, ossidato, ecc. la resistenza aumenta anche di poco e prende fuoco.

Sui vecchi connettore 8 pin invece ci sono casi in cui lavorano abbondantemente fuori specifica senza problemi come la Radeon 295x2 che arrivava a tirare 650W con 2 connettori 8pin che dovrebbero portarne massimo 300W.

Ma poi anche senza conti e specifiche chiunque si intenda un po' di elettronica e elettrotecnica guardando quel connettore ti dirà che non è il caso di farci passare 50A

amon.akira
25-10-2025, 11:07
I numeri nei mio piccolo nn ti danno ragione, tra una 10ina di 4090 a 600w+ e serie 5000,.ma anche i grandi numeri nn ti danno ragione...inoltre una 5080 e una 9070xt che nn arrivano a 600w come te le spieghi? O come giusto che sia dovremmo puntare il dito sul connettore nn a prova di idiota, fermo restando che nn ho mai visto un prodotto di cui nn hanno mai istituito un centro assistenza, significherebbe guasti/difetti 0

Mars95
25-10-2025, 12:53
I numeri nei mio piccolo nn ti danno ragione, tra una 10ina di 4090 a 600w+ e serie 5000,.ma anche i grandi numeri nn ti danno ragione...inoltre una 5080 e una 9070xt che nn arrivano a 600w come te le spieghi? O come giusto che sia dovremmo puntare il dito sul connettore nn a prova di idiota, fermo restando che nn ho mai visto un prodotto di cui nn hanno mai istituito un centro assistenza, significherebbe guasti/difetti 0

I numeri vanno interpretati, chiaro che parliamo di un numero ristretto di casi, però vedila così anche fossero 30 casi in 4 anni li stai sempre confrontando con zero casi o comunque talmente pochi che nessuno ne ha mai parlato sui vecchi connettori in diverse decine di anni, sintomo che qualcosa è cambiato in peggio.

Si nei casi delle 5080 e 9070xt è palese che si tratti di un connettore difettoso o inserito male.

amon.akira
25-10-2025, 13:09
I numeri vanno interpretati, chiaro che parliamo di un numero ristretto di casi, però vedila così anche fossero 30 casi in 4 anni li stai sempre confrontando con zero casi o comunque talmente pochi che nessuno ne ha mai parlato sui vecchi connettori in diverse decine di anni, sintomo che qualcosa è cambiato in peggio.

Si nei casi delle 5080 e 9070xt è palese che si tratti di un connettore difettoso o inserito male.

Difettoso o inserito male, quindi nn parliamo piu di limiti

Eddie666
25-10-2025, 13:24
io nel mio piccolo ho smontato e rimontato la 5090 almeno una decina di volte (e altrettanto avevo fatto con la 4090), e di problemi col connettore non ne ho mai avuti; l'alimentatore è un seasonic vertex 1000 gold (quindi uno dei primi pci 3.1): ho sempre utilizzato il suo cavo nativo, che però quando ho comprato la 5090 ho sostituito con la nuova versione 12V-2×6, sempre originale seasonic

Cutter90
25-10-2025, 13:27
Difettoso o inserito male, quindi nn parliamo piu di limiti

Ma infatti questo è il punto che vedo che a molti continua a Sfuggire. Nei casi avvenuti non abbiamo praticamente mai un caso in cui si sia fuso perché " tirato a 600 watt ore". Chi in indle, chi non ha nemmeno una 5090 e chi di certo non stava nemmeno vicino ai 600 watt.
Io dico che sono casi di difetto dell alimentazione, o della scheda stessa. Oppure problemi meccanici di inserirmento del cavo.

dAbOTZ
25-10-2025, 16:29
der8auer aveva mostrato come la GPU continuasse a rimanere accesa anche se uno dei pin non faceva bene contatto, col risultato che sugli altri passava assorbimento maggiore, e da qui la fusione. Questo non dovrebbe proprio accadere del tutto, se l'alimentazione è irregolare la GPU si dovrebbe SPEGNERE, indipendentemente dal fatto che si tratti di inserimento non abbastanza a fondo o problemi hardware di PSU o GPU stessa. Ci han pure messo i 4 pin di controllo e non hanno alcun effetto. Tutto quel che ruota attorno a questo 12VHPWR è una porcheria da qualunque parte la si guardi.

Antostorny
25-10-2025, 22:55
Giocando in 1440p a 144 Hz, la mia NVIDIA RTX 3080 da 10 GB comincia — devo ammetterlo per la prima volta — a mostrare i suoi limiti in Battlefield 6... e in parte è colpa mia perché gioco con tutti i dettagli al massimo e punto sempre a frame alti

Stavo pensando di fare un upgrade alla RTX 5080, ma vari rumor segnalano che verso fine anno/inizio 2026 potrebbe uscire la versione SUPER con 24 GB di VRAM, il che la renderebbe molto più “future-proof”, soprattutto in vista di risoluzioni più elevate.

Qualcuno è in attesa come me? Qual è la vostra opinione? Quando uscirà davvero questa nuova revisione?

Mi auto-quoto per aggiornamento. Onestamente non avevo molta voglia di aspettare ed ho ordinato la vera bestia: RTX 5090 :sofico: , in particolare il modello ASUS TUF Gaming GeForce RTX 5090.

Oltre alla bestiolina sopracitata ho acquistato un alimentatore da 1200W che ha già l'apposito connettore 12V-2x6:

NZXT C1200 Gold ATX 3.1 - Alimentatore per PC da gaming completamente modulare a rumorosità ridotta - 1200 watt - 80 PLUS Gold - Connettore 12V-2x6 - Condensatori 100% giapponesi - Nero

Pareri su questa PSU? Ho visto che ha condensatori giapponesi, ma sarà di qualità? Non avendo esperienze con alimentatori NZXT, posso star tranquillo considerando il "valore" della scheda che dovrà alimentare?:stordita:

provato a tenere il dlss e mettere il frame gen (FSR) di amd?

io ci ho messo una "pezza" così per arrivare alle 5080 Super da 24Gb, la fluidità aumenta e il frametime rimane regolare e basso in maniera coerente con gli fps

Solo DLSS. L'FSR sembra abbassare troppo la qualità delle immagini.

Occhio che Battflefield è molto cpu intensive. E visto che non hai un cpu nuva occhio. Hai visto se la gpu sta fissa al 99% mentre giochi?

La CPU sta al 50% circa. Parliamo sempre della CPU top di gamma AMD fino a 3 anni fa... :) a maggior ragione non riesco a capire come sia possibile. Vedremo con la nuova GPU se cambia qualcosa :D

Cutter90
25-10-2025, 22:58
Mi auto-quoto per aggiornamento. Onestamente non avevo molta voglia di aspettare ed ho ordinato la vera bestia: RTX 5090 :sofico: , in particolare il modello ASUS TUF Gaming GeForce RTX 5090.

Oltre alla bestiolina sopracitata ho acquistato un alimentatore da 1200W che ha già l'apposito connettore 12V-2x6:

NZXT C1200 Gold ATX 3.1 - Alimentatore per PC da gaming completamente modulare a rumorosità ridotta - 1200 watt - 80 PLUS Gold - Connettore 12V-2x6 - Condensatori 100% giapponesi - Nero

Pareri su questa PSU? Ho visto che ha condensatori giapponesi, ma sarà di qualità? Non avendo esperienze con alimentatori NZXT, posso star tranquillo considerando il "valore" della scheda che dovrà alimentare?:stordita:



Solo DLSS. L'FSR sembra abbassare troppo la qualità delle immagini.



La CPU sta al 50% circa. Parliamo sempre della CPU top di gamma AMD fino a 3 anni fa... :) a maggior ragione non riesco a capire come sia possibile. Vedremo con la nuova GPU se cambia qualcosa :D

Ho scritto la GPU, non la CPU. Che in media la CPU stia al 50% Conta zero. Basta che due core siano al 90% e sei CPU limted.
Con la 5090 sarai 100% CPU limted su tutto. A meno di non giocare a 60-80 fps :)

Antostorny
25-10-2025, 23:16
Ho scritto la GPU, non la CPU. Che in media la CPU stia al 50% Conta zero. Basta che due core siano al 90% e sei CPU limted.
Con la 5090 sarai 100% CPU limted su tutto. A meno di non giocare a 60-80 fps :)

Pardon, ero convintissimo di aver letto "CPU", sarà l'eta che avanza :)


Comunque la GPU non sta a 99% fisso..il carico va da un minimo di 73% ad un massimo di 97%

Cutter90
25-10-2025, 23:20
Ecco, allora sei CPU limited già ora :)

frafelix
25-10-2025, 23:29
NZXT C1200 Gold ATX 3.1 - Alimentatore per PC da gaming completamente modulare a rumorosità ridotta - 1200 watt - 80 PLUS Gold - Connettore 12V-2x6 - Condensatori 100% giapponesi - Nero

Pareri su questa PSU? Ho visto che ha condensatori giapponesi, ma sarà di qualità? Non avendo esperienze con alimentatori NZXT, posso star tranquillo considerando il "valore" della scheda che dovrà alimentare?:stordita:

La psu è tra le migliori, me l'avevano consigliata anche a me quando cercavo la mia nel thread degli ali. Solo che io puntavo sul c1500

Antostorny
25-10-2025, 23:50
Ecco, allora sei CPU limited già ora :)

Domanda stupida: quindi rischio di non notare alcun miglioramento prestazionale in game? :eek:

Per me l'obiettivo è il 1440p a 144FPS fissi...tutto maxato

Cutter90
26-10-2025, 00:21
Domanda stupida: quindi rischio di non notare alcun miglioramento prestazionale in game? :eek:

Per me l'obiettivo è il 1440p a 144FPS fissi...tutto maxato

Una 5090 è un po' troppo per il 1440p a 144hz. La cpu che hai è il vero problema. bF purtroppo tira molto la CPU. Con la 5090 sei parecchio sbilanciato.
Poi dipende.Giochi solo a bf?
Cmq si, c'è caso che il guadagno si "poco" secondi me

Antostorny
26-10-2025, 08:15
Una 5090 è un po' troppo per il 1440p a 144hz. La cpu che hai è il vero problema. bF purtroppo tira molto la CPU. Con la 5090 sei parecchio sbilanciato.
Poi dipende.Giochi solo a bf?
Cmq si, c'è caso che il guadagno si "poco" secondi me

Si, ma nono solo. Gioco anche a Hears of Iron IV che effettivamente è anche un altro gioco CPU-intensive, soprattutto in late game.

Gigibian
26-10-2025, 10:39
Ecco, allora sei CPU limited già ora :)

Veramente usando le metriche di nvidia (Alt+R) anche con la mia configurazione la gpu non sale mai sopra al 97%, lo fa solo con steel nomad.
Con hogwarts e obscur 33 mai sopra il 97%, occupazione CPU 17%… e non sono sicuramente CPU limited .

Cutter90
26-10-2025, 11:08
Veramente usando le metriche di nvidia (Alt+R) anche con la mia configurazione la gpu non sale mai sopra al 97%, lo fa solo con steel nomad.
Con hogwarts e obscur 33 mai sopra il 97%, occupazione CPU 17%… e non sono sicuramente CPU limited .

Da un minimo di 73 ad una max di 97.
No n sarebbe CPU limited se fosse fisso 97.
Se oscilla tra quelle % è CPU limited 100%

petru916
26-10-2025, 11:43
Domanda stupida: quindi rischio di non notare alcun miglioramento prestazionale in game? :eek:

Per me l'obiettivo è il 1440p a 144FPS fissi...tutto maxato

Fossi in te avrei preso la 5080 per quel target, la 5090 in 1440p é veramente overkill, forse dovresti prendere un 9800x3D per sfruttarla a quella risoluzione, ma se cappi il framerate anche in quel caso alla gpu stai facendo il solletico

FvR 93
26-10-2025, 12:23
La CPU sta al 50% circa. Parliamo sempre della CPU top di gamma AMD fino a 3 anni fa... :) a maggior ragione non riesco a capire come sia possibile. Vedremo con la nuova GPU se cambia qualcosa :D

Mi lego al discorso che mi ha sempre appassionato, la limitazione da parte della CPU va oltre il semplice indice di utilizzo. Ci sono diverse cose da tenere in considerazione e si può controllare tutto tramite la lettura delle moderne metriche (tipo presentmon etc).

Ho fatto un video a riguardo, prendendo in esempio il 5800X3D. Nei primi minuti cerco di spiegare quello che dal mio punto di vista vale la pena tenere in considerazione per parlare di un Bottleneck della CPU.

https://i.ibb.co/5bc0hH3/cpubottleneck.jpg (https://youtu.be/zf6e587xj0o)

Nel mio caso c'è una RTX5080 quindi la tua situazione è ancora più accentuata per via della CPU meno veloce (in game) e della GPU decisamente più potente.

Diciamo che allo stato attuale c'è un forte sbilanciamento nella build e considerando risoluzione e refresh rate non credo che tu possa avere migliormaneti tangibili rispetto ad una 5070Ti nei giochi, in applicativi professionali hai sicuramente dei grossi vantaggi e giustificherebbe la spesa.

Antostorny
26-10-2025, 18:23
Da un minimo di 73 ad una max di 97.
No n sarebbe CPU limited se fosse fisso 97.
Se oscilla tra quelle % è CPU limited 100%

Mi lego al discorso che mi ha sempre appassionato, la limitazione da parte della CPU va oltre il semplice indice di utilizzo. Ci sono diverse cose da tenere in considerazione e si può controllare tutto tramite la lettura delle moderne metriche (tipo presentmon etc).

Ho fatto un video a riguardo, prendendo in esempio il 5800X3D. Nei primi minuti cerco di spiegare quello che dal mio punto di vista vale la pena tenere in considerazione per parlare di un Bottleneck della CPU.

<a href="https://ibb.co/pjd2G16N"><img src="https://i.ibb.co/pjd2G16N/1.png" alt="1" border="0"></a>

Nel mio caso c'è una RTX5080 quindi la tua situazione è ancora più accentuata per via della CPU meno veloce (in game) e della GPU decisamente più potente.

Diciamo che allo stato attuale c'è un forte sbilanciamento nella build e considerando risoluzione e refresh rate non credo che tu possa avere migliormaneti tangibili rispetto ad una 5070Ti nei giochi, in applicativi professionali hai sicuramente dei grossi vantaggi e giustificherebbe la spesa.

Una 5090 è un po' troppo per il 1440p a 144hz. La cpu che hai è il vero problema. bF purtroppo tira molto la CPU. Con la 5090 sei parecchio sbilanciato.
Poi dipende.Giochi solo a bf?
Cmq si, c'è caso che il guadagno si "poco" secondi me

Fossi in te avrei preso la 5080 per quel target, la 5090 in 1440p é veramente overkill, forse dovresti prendere un 9800x3D per sfruttarla a quella risoluzione, ma se cappi il framerate anche in quel caso alla gpu stai facendo il solletico

Credo di aver fatto un po’ di confusione, lasciandomi trarre in inganno dal nuovo Overlay di Steam, di cui solo ora ho compreso appieno il funzionamento. In precedenza vi avevo fornito una percentuale errata di utilizzo della CPU: stavo osservando il primo valore mostrato dall’overlay, mentre in realtà avrei dovuto considerare il secondo. Il primo indica infatti il carico complessivo su tutti i core, mentre il secondo si riferisce al core più utilizzato dal gioco. In questo caso, quest’ultimo valore resta costantemente sopra il 90% durante le partite, con picchi che arrivano persino al 110% (!).

Risoluzione ed impostazioni grafiche nel menù di gioco (BF 6):

https://i.ibb.co/pjd2G16N/1.png (https://ibb.co/pjd2G16N)

https://i.ibb.co/011Pjtc/2.png (https://ibb.co/011Pjtc)

https://i.ibb.co/5Wq645Tp/3.png (https://ibb.co/5Wq645Tp)

Sono quindi giunto alla conclusione di non essere CPU limited con il mio Ryzen 9 5950X, ma piuttosto GPU limited con la RTX 3080, anche perché il problema si manifesta esclusivamente con le impostazioni grafiche più estreme.

A confermarlo è il comportamento delle prestazioni: nel primo minuto di gioco ottengo circa 110–120 FPS (in 2K, con tutto al massimo), ma dopo pochi minuti il frame rate crolla fino a 60–50 FPS, arrivando persino a 30 FPS nelle situazioni più concitate — cosa mai accaduta prima con questa scheda. Abbassando leggermente le impostazioni grafiche, invece, mantengo 130 FPS stabili per tutta la partita.

110 \ 130 FPS early game: inizio partita con VRAM disponibile:

https://i.ibb.co/RTr7Z0L6/4.png (https://ibb.co/RTr7Z0L6)

La causa sembra essere la VRAM da 10 GB della RTX 3080, che viene in modo graduale completamente saturata a dettagli estremi in 2K, costringendo il sistema a utilizzare parte della RAM come memoria condivisa. Da notare che il gioco arriva a occupare fino a 13,5 GB di memoria video su un totale effettivo di 9,8 GB disponibili:

https://i.ibb.co/WNSdBXhz/6.png (https://ibb.co/WNSdBXhz)

La conferma di questo comportamento la si riscontra anche accedendo al menu di gioco durante una partita, dopo che la caduta dei frame è avvenuta (v. messaggio in basso a destra):

https://i.ibb.co/392YrWCv/7.png (https://ibb.co/392YrWCv)

Per quella che è la mia esperienza, Battlefield 6 è un titolo molto “scalabile” dal punto di vista dei settaggi grafici: tecnicamente riesce a girare in modo più che dignitoso anche su GPU di quasi dieci anni fa, come la GTX 1070, ovviamente limitandosi al Full HD e giocando un po’ con le impostazioni grafiche. Tuttavia, spingendo tutto al massimo dal 2K in su, la memoria video viene letteralmente divorata, mettendo in difficoltà persino le "vecchie" top di gamma come la mia RTX 3080.

Con la nuova RTX 5090 e i suoi 32 GB di VRAM, dovrei finalmente risolvere il problema alla radice.
Vi terrò aggiornati sui risultati. :D

Vi torna il mio ragionamento?

dAbOTZ
26-10-2025, 18:45
Diciamo pure che con un tale overbooking di vram è già un miracolo che non ti vada in crash il gioco.

Antostorny
26-10-2025, 19:01
Diciamo pure che con un tale overbooking di vram è già un miracolo che non ti vada in crash il gioco.

Beh, ovviamente non gioco in quel modo: è visivamente ingiocabile. Per come sono abituato, già sotto gli 80 FPS il gioco risulta tutt’altro che fluido, quindi al momento sto giocando abbassando qualche dettaglio grafico e mi mantengo intorno ai 100–130 FPS.

Quegli screenshot servivano solo per effettuare test, analisi e debug, con l’obiettivo di capire se fossi limitato dalla CPU o dalla GPU.

Riguardo invece alla mia risposta precedente, ti torna il mio ragionamento e il fatto che, a quanto pare, non sono CPU limited come avevamo inizialmente ipotizzato?

EDIT: A beneficio di eventuali lettori futuri sulla 3080 in 2K il problema di frame drop si risolve semplicemente abbassando da "estreme" ad "ultra" i settaggi:


Qualità grafica
Qualità textures


La memoria video occupata rimarrà fissa sugli 8.3 Gb occupati sui 9.8 Gb totali ed il frame rate totale oscillerà fra i 110 ed i 137 FPS.

dAbOTZ
26-10-2025, 19:12
Dai tuoi screen non vedo segni evidenti di cpu limit, quelli emergeranno eventualmente con la nuova gpu con la quale non avrai più gli attuali problemi di vram limit. Sono quelli che attualmente ti affossano gli fps.

Prezioso
26-10-2025, 19:40
non so se è stato sistemato con quei piccoli aggiornamenti che hanno fatto, in attesa della grande patch del 28, ma c'è un problema con i dettagli estremi, magari appena impostati è tutto ok ma giocando un pò anche a me segna vram esaurita, mi è capitato dopo 2/3 partite che il gioco si chiudesse, poi per evitare ho messo dettagli ultra e non si schioda dai 7/8gb di vram, mettendo extreme come detto dopo un po va subito a vram piena e non è una cosa normale

Cutter90
26-10-2025, 20:54
Credo di aver fatto un po’ di confusione, lasciandomi trarre in inganno dal nuovo Overlay di Steam, di cui solo ora ho compreso appieno il funzionamento. In precedenza vi avevo fornito una percentuale errata di utilizzo della CPU: stavo osservando il primo valore mostrato dall’overlay, mentre in realtà avrei dovuto considerare il secondo. Il primo indica infatti il carico complessivo su tutti i core, mentre il secondo si riferisce al core più utilizzato dal gioco. In questo caso, quest’ultimo valore resta costantemente sopra il 90% durante le partite, con picchi che arrivano persino al 110% (!).

Risoluzione ed impostazioni grafiche nel menù di gioco (BF 6):

https://i.ibb.co/pjd2G16N/1.png (https://ibb.co/pjd2G16N)

https://i.ibb.co/011Pjtc/2.png (https://ibb.co/011Pjtc)

https://i.ibb.co/5Wq645Tp/3.png (https://ibb.co/5Wq645Tp)

Sono quindi giunto alla conclusione di non essere CPU limited con il mio Ryzen 9 5950X, ma piuttosto GPU limited con la RTX 3080, anche perché il problema si manifesta esclusivamente con le impostazioni grafiche più estreme.

A confermarlo è il comportamento delle prestazioni: nel primo minuto di gioco ottengo circa 110–120 FPS (in 2K, con tutto al massimo), ma dopo pochi minuti il frame rate crolla fino a 60–50 FPS, arrivando persino a 30 FPS nelle situazioni più concitate — cosa mai accaduta prima con questa scheda. Abbassando leggermente le impostazioni grafiche, invece, mantengo 130 FPS stabili per tutta la partita.

110 \ 130 FPS early game: inizio partita con VRAM disponibile:

https://i.ibb.co/RTr7Z0L6/4.png (https://ibb.co/RTr7Z0L6)

La causa sembra essere la VRAM da 10 GB della RTX 3080, che viene in modo graduale completamente saturata a dettagli estremi in 2K, costringendo il sistema a utilizzare parte della RAM come memoria condivisa. Da notare che il gioco arriva a occupare fino a 13,5 GB di memoria video su un totale effettivo di 9,8 GB disponibili:

https://i.ibb.co/WNSdBXhz/6.png (https://ibb.co/WNSdBXhz)

La conferma di questo comportamento la si riscontra anche accedendo al menu di gioco durante una partita, dopo che la caduta dei frame è avvenuta (v. messaggio in basso a destra):

https://i.ibb.co/392YrWCv/7.png (https://ibb.co/392YrWCv)

Per quella che è la mia esperienza, Battlefield 6 è un titolo molto “scalabile” dal punto di vista dei settaggi grafici: tecnicamente riesce a girare in modo più che dignitoso anche su GPU di quasi dieci anni fa, come la GTX 1070, ovviamente limitandosi al Full HD e giocando un po’ con le impostazioni grafiche. Tuttavia, spingendo tutto al massimo dal 2K in su, la memoria video viene letteralmente divorata, mettendo in difficoltà persino le "vecchie" top di gamma come la mia RTX 3080.

Con la nuova RTX 5090 e i suoi 32 GB di VRAM, dovrei finalmente risolvere il problema alla radice.
Vi terrò aggiornati sui risultati. :D

Vi torna il mio ragionamento?

Ottimo test. Tuttavia ci tengo a precisare che avete anche un solo core al 90% causa perdite di fps. E anche considerevole in certe situazioni.
Quindi non sarai super CPU limited ma cmq lo sei un po'. E quel po' non lo sappiamo con precisione.
Potresti fare un test. Stesso scenario ma mettere in 1080p. Se gli fps non aumentano o lo fanno di poco allora sei CPU limited.
Cmq con la 3080 da 10 GB bisogna mettere le texture su alto. Ci sta non poter sparare tutto al max.

FvR 93
27-10-2025, 09:50
non so se è stato sistemato con quei piccoli aggiornamenti che hanno fatto, in attesa della grande patch del 28, ma c'è un problema con i dettagli estremi, magari appena impostati è tutto ok ma giocando un pò anche a me segna vram esaurita, mi è capitato dopo 2/3 partite che il gioco si chiudesse, poi per evitare ho messo dettagli ultra e non si schioda dai 7/8gb di vram, mettendo extreme come detto dopo un po va subito a vram piena e non è una cosa normale

BF6 ha sofferto di Memory Leak nella prima Beta, sistemato nella seconda Beta e poi al rilascio è tornato il problema sia per la RAM di sistema che per la VRAM. Credo che a diverse settimane dal lancio sia stato risolto o in via di risoluzione :rolleyes:

Esagerao
27-10-2025, 11:10
Qualcuno sta provando outer worlds2?
Ho provato dlss qualità, equilibrato, fg, ma la gpu lavora tra 75-90% senza che i frame raggiungano i 120 fps dell'oled.
Ultimi drives installati, magari gioco ancora acerbo da ottimizzare?

Antostorny
27-10-2025, 11:24
Credo di aver fatto un po’ di confusione, lasciandomi trarre in inganno dal nuovo Overlay di Steam, di cui solo ora ho compreso appieno il funzionamento. In precedenza vi avevo fornito una percentuale errata di utilizzo della CPU: stavo osservando il primo valore mostrato dall’overlay, mentre in realtà avrei dovuto considerare il secondo. Il primo indica infatti il carico complessivo su tutti i core, mentre il secondo si riferisce al core più utilizzato dal gioco. In questo caso, quest’ultimo valore resta costantemente sopra il 90% durante le partite, con picchi che arrivano persino al 110% (!).

Risoluzione ed impostazioni grafiche nel menù di gioco (BF 6):

https://i.ibb.co/pjd2G16N/1.png (https://ibb.co/pjd2G16N)

https://i.ibb.co/011Pjtc/2.png (https://ibb.co/011Pjtc)

https://i.ibb.co/5Wq645Tp/3.png (https://ibb.co/5Wq645Tp)

Sono quindi giunto alla conclusione di non essere CPU limited con il mio Ryzen 9 5950X, ma piuttosto GPU limited con la RTX 3080, anche perché il problema si manifesta esclusivamente con le impostazioni grafiche più estreme.

A confermarlo è il comportamento delle prestazioni: nel primo minuto di gioco ottengo circa 110–120 FPS (in 2K, con tutto al massimo), ma dopo pochi minuti il frame rate crolla fino a 60–50 FPS, arrivando persino a 30 FPS nelle situazioni più concitate — cosa mai accaduta prima con questa scheda. Abbassando leggermente le impostazioni grafiche, invece, mantengo 130 FPS stabili per tutta la partita.

110 \ 130 FPS early game: inizio partita con VRAM disponibile:

https://i.ibb.co/RTr7Z0L6/4.png (https://ibb.co/RTr7Z0L6)

La causa sembra essere la VRAM da 10 GB della RTX 3080, che viene in modo graduale completamente saturata a dettagli estremi in 2K, costringendo il sistema a utilizzare parte della RAM come memoria condivisa. Da notare che il gioco arriva a occupare fino a 13,5 GB di memoria video su un totale effettivo di 9,8 GB disponibili:

https://i.ibb.co/WNSdBXhz/6.png (https://ibb.co/WNSdBXhz)

La conferma di questo comportamento la si riscontra anche accedendo al menu di gioco durante una partita, dopo che la caduta dei frame è avvenuta (v. messaggio in basso a destra):

https://i.ibb.co/392YrWCv/7.png (https://ibb.co/392YrWCv)

Per quella che è la mia esperienza, Battlefield 6 è un titolo molto “scalabile” dal punto di vista dei settaggi grafici: tecnicamente riesce a girare in modo più che dignitoso anche su GPU di quasi dieci anni fa, come la GTX 1070, ovviamente limitandosi al Full HD e giocando un po’ con le impostazioni grafiche. Tuttavia, spingendo tutto al massimo dal 2K in su, la memoria video viene letteralmente divorata, mettendo in difficoltà persino le "vecchie" top di gamma come la mia RTX 3080.

Con la nuova RTX 5090 e i suoi 32 GB di VRAM, dovrei finalmente risolvere il problema alla radice.
Vi terrò aggiornati sui risultati. :D

Vi torna il mio ragionamento?

BF6 ha sofferto di Memory Leak nella prima Beta, sistemato nella seconda Beta e poi al rilascio è tornato il problema sia per la RAM di sistema che per la VRAM. Credo che a diverse settimane dal lancio sia stato risolto o in via di risoluzione :rolleyes:


Il mio test di cui sopra è stato fatto nel tardo pomeriggio di ieri quindi possiamo confermare che non è stato ancora risolto :doh:

razor820
27-10-2025, 12:39
Aggiorno sulla mia situazione riguardo la fattura che non avevo ricevuto da nvidia al momento dell acquisto.
Finalmente stamattina tramite e-mail del supporto mi è arrivata la fattura della 5080 con il codice bundle del gioco.

Questo avvenuto dopo una 20ina di giorni dall acquisto e diversi solleciti.
Sottolineo che la fattura non è da ldcl, ma targata nvidia.

rintintin78
27-10-2025, 14:47
https://i.ibb.co/5Wq645Tp/3.png (https://ibb.co/5Wq645Tp)



Posso chiederti che programma usi per le statistiche(quello in alto a destra nelle tue foto)

Grazie

BMWZ8
27-10-2025, 15:52
Posso chiederti che programma usi per le statistiche(quello in alto a destra nelle tue foto)

Grazie



se non erro è l'overlay di Steam.lo uso anche io è molto utile per vedere il carico sulla cpu per singolo thread

ombramortale
27-10-2025, 19:18
@Antostorny

...sembrerebbe un problema di memory leak come altri hanno scritto ma a parte questo hai provato a verificare se sei GPU o CPU bound con il tool che trovi in game?

poi attivarlo da: grafica>avanzate>interfaccia prestazioni

oppure

da console di comando: perfoverlay.drawfps 1

Evilquantico
27-10-2025, 19:52
State lontani dalla GeForce RTX 5090 Founders Edition': l'appello di un riparatore

https://www.hwupgrade.it/news/skvideo/state-lontani-dalla-geforce-rtx-5090-founders-edition-l-appello-di-un-riparatore_145412.html

dAbOTZ
27-10-2025, 20:11
Vabbè ma in quel caso l'utente ha montato il wb con un martello.

https://i.postimg.cc/Wb6ByWKS/5090fault.png

Antostorny
27-10-2025, 20:38
Posso chiederti che programma usi per le statistiche(quello in alto a destra nelle tue foto)

Grazie

se non erro è l'overlay di Steam.lo uso anche io è molto utile per vedere il carico sulla cpu per singolo thread

Confermo, è proprio il nuovo overlay di Steam. Lo attivi da impostazioni > in gioco > Mostra il monitor delle prestazioni

@Antostorny

...sembrerebbe un problema di memory leak come altri hanno scritto ma a parte questo hai provato a verificare se sei GPU o CPU bound con il tool che trovi in game?

poi attivarlo da: grafica>avanzate>interfaccia prestazioni

oppure

da console di comando: perfoverlay.drawfps 1

E' chiaramente quello il problema, comunque verifico.

Mal che vada non appena usciranno i nuovi Ryzen 10000 (Zen 6) butto via tutto e faccio un bell'upgrade di CPU, RAM e scheda madre così da dare dei degni compagni di avventure alla mia 5090 :D

Eddie666
27-10-2025, 22:47
Qualcuno sta provando outer worlds2?
Ho provato dlss qualità, equilibrato, fg, ma la gpu lavora tra 75-90% senza che i frame raggiungano i 120 fps dell'oled.
Ultimi drives installati, magari gioco ancora acerbo da ottimizzare?

ma il gioco diventa più pesante dopo l'inizio? perchè ho appena cominciato sono nella nave, vsync attivatoda pannello di contrllo nvidia (così posso abilitare il frame gen), 4k tutto max raytracing attivo e maxo senza problemi i 120hz

Alekos Panagulis
28-10-2025, 09:07
State lontani dalla GeForce RTX 5090 Founders Edition': l'appello di un riparatore



https://www.hwupgrade.it/news/skvideo/state-lontani-dalla-geforce-rtx-5090-founders-edition-l-appello-di-un-riparatore_145412.htmlQuesto però è il punto di vista di un riparatore. Finché la Fe viene usata così com'è, senza alcuna modifica, non vedo il problema.

Inviato dal mio 24129PN74G utilizzando Tapatalk

Cutter90
28-10-2025, 09:14
Questo però è il punto di un riparatore. Finché la Fe viene usata così com'è, senza alcuna modifica, non vedo il problema.

Inviato dal mio 24129PN74G utilizzando Tapatalk

MA che razza di articolo fuorviante sarebbe poi? Cioè, durante l'installazione del waterblock si è danneggiato un connettore e la colpa sarebbe della FE?
E' incredibile come le notizie vengano manipolate in modo da fare disinformazione, se uno non ci sta attento.

E' come dire: "state lontani della Ferrari 458!"
Poi vai a leggere " il motore di una Ferrari si è grippato malamente. Il pistone ha grattato il cilindro. Il cliente ha detto di aver sentito rumori strani provenire dal motore dopo che ha lasciato la stazione di servizio in cui nella benzina è stata ritrovata un 50 % di acqua ecc ecc"

Ma ci rendiamo conto? Poi la gente va in paranoia/panico

Dono89
28-10-2025, 09:24
Più che altro in confronto alla 3080 founder la 5090 la smonti con una mano. Gli farei cambiare i pad alla 3080, aveva un cavo a nastro che era la metà del cavo incriminato e decisamente più leggero.

Detto questo, le founder sono un disastro in confronto alle altre per mettere metallo liquido o cambiare pad