PDA

View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 [92] 93 94 95

Black"SLI"jack
01-02-2023, 17:15
infatti a 20Gbps è più facile restare intorno ai 2Ghz. dovrei flashare il bios da 390w di una Galax/KFA2 come ho sempre fatto sia sulla 2080ti e sulla 3090.

mikael84
01-02-2023, 18:01
Però un attimo, qui stiamo cambiando il paradigma. Non si sta parlando di qual è la migliore % in base al punteggio, ma se la scheda consuma più di 350W o no e contrariamente da quanto detto, la risposta è si.

a Black"SLI"jack non va oltre i 350W perchè viene limitata dal PL, ci credo che fa max 2055 MHz, ma non li tiene e anche la media che ad occhio vediamo ha i suoi limiti dato che la maggior parte sono spike, infatti dal grafico di gpuz, il perfcap è fisso, fisso verde

nel tuo caso mikael le fluttiazioni ci sono, e sono tante (ma hai limitato la scheda, son pronto a scommettere che se sblocchi il pl superi i 350W e il grafico di frequenza non è così ballerino). Poi che magari prendi solamente 100 punti è un'altra storia.

Il mio punto è: a 300w/1920 o 350w/2000 (potenza vs. core frequency) la scheda viene limitata?
se la risposta è si, allora non si può dire che consuma quel tot, perchè consumerebbe di più. Il vero consumo è quando non ci sono limiti/tagli, altrimenti è un fermo sw e stiamo confrontando due usi diversi.

Anche io posso bloccare la mia a 300W, perdere qualche manciata di punti e dire che consuma 300W, ma se senza blocchi a 1920/900mV arriva a 350W di consumo, quello è il suo valore.
Ora capisco perchè a Black consuma 350W nonostante le frequenze, perchè quello è il valore del PL (e non a caso gpuz è fissa verde) e oltre non può andare, quello che potrebbe andare oltre, viene bloccato e da gpuz è evidente:
https://postlmg.cc/gXFYHgB6

Ora mi è tutto più chiaro, non è che la stessa scheda sotto liquido consuma 60W in meno.
è vero che se si avessero 400W raggiungeremmo quel valore, ma sarebbe per qualche decimo di secondo e solo in rari momenti, discorso diverso con 350W a 2000mhz, dove sta fissa in PL e non per qualche ms

Il discorso è che, se tu spari più PL, avrai consumi mediamente superiori sempre. Tu ad esempio ce l'hai fisso a 375, e la scheda spara tot watt.

Se nella tua scheda potessi mettere 500watt di PL, la scheda ti consumerebbe 400watt. Quindi i confronti con la sua, sono un tantino differenti.

A lui inoltre, dal grafico di GPU-Z, si nota, come ti dicevo, che la 3080 12, è mediamente migliorare come silicio, uno degli ultimi lotti.
infatti a lui segna 144 watt, che con i collegamenti e tutto sarà 200 watt.

Per valutare questi parametri meglio usare hwinfo, dove ti da il gpu carico completo.

Cmq, non è che necessita per forza di 350 watt quel test, e che più PL dai più spara corrente. Se metto PL 0, non taglia quasi nulla.

probabilmente perchè scendere con le ram fa o lavorare meno la gpu (mi suona strano) o riduce il consumo dando spazio al core.
Motivo in più che prova che a 350W sei fortemente limitato dal PL con 2050MHz. Quel grafico tutto verde di gpuz non lascia spazio a dubbi.

Non è nulla di anomalo, non è che la scheda non va, solo che ha un pl da bios che te la limita ed era ciò che mi aspettavo e non che ti bastano 350W per tenerla a oltre 2GHz di core

infatti a 20Gbps è più facile restare intorno ai 2Ghz. dovrei flashare il bios da 390w di una Galax/KFA2 come ho sempre fatto sia sulla 2080ti e sulla 3090.

Provate a fare un ultima prova con hwinfo e PL entrambe a 350w, così si vedono tutti i valori relativi a circuiteria e GPU. GPU-Z purtroppo su GA102 segna solo il core.

Dono89
01-02-2023, 20:47
Il discorso è che, se tu spari più PL, avrai consumi mediamente superiori sempre. Tu ad esempio ce l'hai fisso a 375, e la scheda spara tot watt.

Se nella tua scheda potessi mettere 500watt di PL, la scheda ti consumerebbe 400watt. Quindi i confronti con la sua, sono un tantino differenti.

A lui inoltre, dal grafico di GPU-Z, si nota, come ti dicevo, che la 3080 12, è mediamente migliorare come silicio, uno degli ultimi lotti.
infatti a lui segna 144 watt, che con i collegamenti e tutto sarà 200 watt.

Per valutare questi parametri meglio usare hwinfo, dove ti da il gpu carico completo.

Cmq, non è che necessita per forza di 350 watt quel test, e che più PL dai più spara corrente. Se metto PL 0, non taglia quasi nulla.

Queste schede (non te lo devo di certo insegnare io:p ) è vero che più spari e più consumano, ma è più relativo agli spike per un tot di ms. (https://www.igorslab.de/wp-content/uploads/2020/09/04-Peak-Power.png)
Dove voglio andare a parare? che un conto è che tecnicamente più spari e più assorbono in fotografie di ms (nel mio caso), un altro è che la scheda è fissa in PL (caso di black).

Capisco che entrambe sono tecnicamente limitate perchè analizzando a 1ms ci potrebbero esser spike, ma tolti gli spike dello 0.1%, un conto è usare la scheda con qualche consumo che andrebbe a 400W, un altro è usare la scheda che è perennemente limitata. Se la scheda è perennemente limitata significa che quel rapporto di frequenza e tensione è limitato e non raggiungibile che è l'inizio del mio punto e prescinde da liquido e tutto il resto.

Quando intendevo che a 2GHz di core non può consumare 350W non intendevo sullo spike di 1ms, intendo nell'uso normale/giocando/benchando; non a caso la mia ha 0 limiti da pl nei test (che li avrà, ma saranno talmente brevi che non si registrano da sw) mentre quella che abbiamo visto di black è perennemente in PL e non perchè ha spike, ma perchè semplicemente per quella frequenza 350W non bastano e non è che come si diceva che la sua scheda consumi meno, è limitata banalmente da sw. Perchè limitata? perchè ha una frequenza che per 350W sfora e infatti sfora tutto il tempo

Per farla breve, un conto è uno spike che ti porta a 400W (avendo 500W di PL ipotetici) un altro è una scheda che lavora costantemente a 350W perchè viene limitata. Se viene limitata e abbiamo la scheda in stato limitato tutto il tempo è perchè quanto le stai dando non le basta e torniamo al punto che 2ghz su ampere e 350W non sono possibili, a meno di dare tensioni irraggiungibili anche con gpu super binnate

mikael84
01-02-2023, 21:01
Queste schede (non te lo devo di certo insegnare io:p ) è vero che più spari e più consumano, ma è più relativo agli spike per un tot di ms. (https://www.igorslab.de/wp-content/uploads/2020/09/04-Peak-Power.png)
Dove voglio andare a parare? che un conto è che tecnicamente più spari e più assorbono in fotografie di ms (nel mio caso), un altro è che la scheda è fissa in PL (caso di black).

Capisco che entrambe sono tecnicamente limitate perchè analizzando a 1ms ci potrebbero esser spike, ma tolti gli spike dello 0.1%, un conto è usare la scheda con qualche consumo che andrebbe a 400W, un altro è usare la scheda che è perennemente limitata. Se la scheda è perennemente limitata significa che quel rapporto di frequenza e tensione è limitato e non raggiungibile che è l'inizio del mio punto e prescinde da liquido e tutto il resto.

Quando intendevo che a 2GHz di core non può consumare 350W non intendevo sullo spike di 1ms, intendo nell'uso normale/giocando/benchando; non a caso la mia ha 0 limiti da pl nei test (che li avrà, ma saranno talmente brevi che non si registrano da sw) mentre quella che abbiamo visto di black è perennemente in PL e non perchè ha spike, ma perchè semplicemente per quella frequenza 350W non bastano e non è che come si diceva che la sua scheda consumi meno, è limitata banalmente da sw. Perchè limitata? perchè ha una frequenza che per 350W sfora e infatti sfora tutto il tempo

Per farla breve, un conto è uno spike che ti porta a 400W (avendo 500W di PL ipotetici) un altro è una scheda che lavora costantemente a 350W perchè viene limitata. Se viene limitata e abbiamo la scheda in stato limitato tutto il tempo è perchè quanto le stai dando non le basta e torniamo al punto che 2ghz su ampere e 350W non sono possibili, a meno di dare tensioni irraggiungibili anche con gpu super binnate

GPU-Z non può leggere gli spike di 1ms, quella è roba per oscilloscopi. il pcat arriva a malapena a 100ms. AV mi pare sta a 500ms.:)


Come detto su, se lui ha 350 watt di PL massimo, dovreste metterle a pari condizioni, e tramite hwinfo, verificare dove sta consumando di più a pari tensione, se nella GPU o nella circuiteria.
GPUZ legge solo la GPU, senza i collegamenti, e non è perfetto, ma dal suo test, si legge che a 350watt di PL, lui consuma meno nella GPU. E questo fa la differenza, anche sul clock.:)

Da lui devi anche levare il dissi, ok 2 ventole, ma igor stima 7 watt.

Dono89
01-02-2023, 21:02
GPU-Z non può leggere gli spike di 1ms, quella è roba per oscilloscopi. il pcat arriva a malapena a 100ms. AV mi pare sta a 500ms.:)


Come detto su, se lui ha 350 watt di PL massimo, dovreste metterle a pari condizioni, e tramite hwinfo, verificare dove sta consumando di più a pari tensione, se nella GPU o nella circuiteria.
GPUZ legge solo la GPU, senza i collegamenti, e non è perfetto, ma dal suo test, si legge che a 350watt di PL, lui consuma meno nella GPU. E questo fa la differenza, anche sul clock.:)

Da lui devi anche levare il dissi, ok 2 ventole, ma igor stima 7 watt.

Lo stavo facendo, dammi tempo :D

350W
https://i.postimg.cc/bY77Vtrn/sp.jpg

370W
https://i.postimg.cc/4x6sQ11n/370.jpg

Black"SLI"jack
02-02-2023, 08:13
stasera faccio un paio di test con hwinfo aperto e posto gli screen, volevo farlo ieri sera ma ero incasinato.

Dono89
02-02-2023, 10:48
stasera faccio un paio di test con hwinfo aperto e posto gli screen, volevo farlo ieri sera ma ero incasinato.

lo facciamo per passione/passatempo più che altro, anche nei prossimi giorni, quando puoi.

anche se in realtà quello che non mi tornava si è confermato, quindi proprio a tempo perso

Gigibian
02-02-2023, 10:52
lo facciamo per passione/passatempo più che altro, anche nei prossimi giorni, quando puoi.

anche se in realtà quello che non mi tornava si è confermato, quindi proprio a tempo perso

Ho seguito con interesse la discussione :D

Quindi in 2 parole, quale è il motivo per cui 2 schede identiche, con gli stessi settaggi, consumano 60W di differenza?

Dono89
02-02-2023, 11:53
Ho seguito con interesse la discussione :D

Quindi in 2 parole, quale è il motivo per cui 2 schede identiche, con gli stessi settaggi, consumano 60W di differenza?

Semplicemente non sono gli stessi settaggi e sopratutto una è bloccata e quindi non va oltre per definizione a quel consumo.

Nei grafici precedenti vedi che a 2055mhz (di max, non mantenuti) raggiunge si solo 350w, ma è fissa in PL (sempre verde e con oscillazioni), il liquido non c'entra.

I casi più emblematici sono
curva 0.900v - 1965 - 21Gbps --> Poco PL
curva 0,925v - 2025 - 20Gbps --> Fissa in PL
Se la scheda è fissa in pl a 2025 figurati oltre

non c'era nessuna stranezza, solo non potevo sapere che la scheda non potesse superare i 350W (350W per una 3080 12gb è pochissimo) e quindi è per forza limitata così, ma non che basta questa potenza. Ovviamente non tiene quella frequenza quindi la frequenza effettiva è minore.
Nessuna magia, semplicemente un bios che limita a 350w :)

Black"SLI"jack
02-02-2023, 19:20
ecco il mio screen. PL 350w, 0,900v, 1950Mhz, 21Gbps

https://i.postimg.cc/vBZd9cbX/Immagine-2023-02-02-201802.png (https://postimg.cc/gwQ5bcw6)

Dono89
03-02-2023, 08:43
I consumi sono leggermente più alti per la mia, ma avevo anche 912mV vs. i tuoi 900mV
nulla che cambi drasticamente, ma dovremmo tenerne conto.

Detto questo, la tua consuma comunque sui 20W in meno, se consideriamo circa 10W dati dalla differenza di tensione, il vero delta sono 10W.
Quei 10W potrebbe essere qualunque cosa, già basta che hai una fase in meno per il gpu core (e non mi stupirei se fosse così avendo un PL così risicato) ed eccoli qua.

Praticamente sono uguali come consumi, il liquido non centra una mazza se non per quei 5W dati da ventole e/o lucine.

ps: ora non sei più limitato dal pl e se guardi gpuz, sicuramente non avrai barre verdi.
Come vedi a 1950 sei al limite, hai meno di 20W di margine e se fai partire requiem vedrai che lo sfori cmq (motivo per cui io ho abbassato l'oc :cry: ma ho perso l'1% da 1965 a 1935, nulla)
Per non esser limitato a 2055mhz con 350W avresti dovuto fare a 1950 300W di massimo, senza contare che i 2055 non li prendi con 900mV e quindi sale ancora di più il consumo

Black"SLI"jack
03-02-2023, 09:33
purtroppo non trovo un bios per la 12GB da 390w da poter sostituire come feci con la 3090 e ancor prima con la 2080ti (su quest'ultima il guadagno è stato netto).

Dono89
03-02-2023, 11:16
purtroppo non trovo un bios per la 12GB da 390w da poter sostituire come feci con la 3090 e ancor prima con la 2080ti (su quest'ultima il guadagno è stato netto).

Tienila a 350W, non ti cambia la vita, hai anche un sample fortunato e compensi con il voltaggio (anche perchè dubito ti andrebbe a 390 senza intoppi).

Tutto il film è nato che non mi tornava che 350w bastassero per oltre 2ghz su ampere quando oltre 1900 i consumi schizzano. Questo non significa che a 350W non la puoi utilizzare, ma è tipo manli, sicuramente avranno fasi non proprio al massimo e hanno limitato il bios per prevenire. Ci sta su una marca più bassa e non c'è nulla di male.

mikael84
03-02-2023, 11:43
Lo stavo facendo, dammi tempo :D





ecco il mio screen. PL 350w, 0,900v, 1950Mhz, 21Gbps




Ecco, la scheda di Black, come detto in precedenza, è nettamente migliore a pari TDP sul core grafico. Ovvero core + collegamenti ram sram.

Dono89
03-02-2023, 12:17
Ecco, la scheda di Black, come detto in precedenza, è nettamente migliore a pari TDP sul core grafico. Ovvero core + collegamenti ram sram.

Scusa Mikael, ma non c'entra nulla.
Il punto non è chi ha la scheda migliore/fortunata, ma che non può esser sotto un PL di 350W @ 2055MHz quando sei al limite già a 1950/900mV
Tutto parte da lì, poi dove consuma di più/di meno è secondario e si fa per esercizio/passione, ma la domanda iniziale è un'altra.

350W sono sufficienti per 2055MHz di core su Ampere? No, nemmeno su una scheda poco carrozzata come la pny dove nonostante l'ottimo sample, sfora comunque i 330W su unigine che sono "appena" sufficienti per 1950 con 900mV.

s12a
03-02-2023, 12:31
Qualche possessore di 3090 non-Ti potrebbe riportare per cortesia quali sono le frequenze di funzionamento tipiche con power limit a 250W (duecentocinquanta)?

mikael84
03-02-2023, 13:11
Scusa Mikael, ma non c'entra nulla.
Il punto non è chi ha la scheda migliore/fortunata, ma che non può esser sotto un PL di 350W @ 2055MHz quando sei al limite già a 1950/900mV
Tutto parte da lì, poi dove consuma di più/di meno è secondario e si fa per esercizio/passione, ma la domanda iniziale è un'altra.

350W sono sufficienti per 2055MHz di core su Ampere? No, nemmeno su una scheda poco carrozzata come la pny dove nonostante l'ottimo sample, sfora comunque i 330W su unigine che sono "appena" sufficienti per 1950 con 900mV.

Ma stavamo parlando di come facesse a tenere clock così elevati e con certi consumi, ed io ti ho mostrato il ruolo del TDP.
Lui ti ha dimostrato che può tenere clock molto più elevati dei tuoi/nostri, consumando poco, mentre tu asserivi che era impossibile in quanto tu per tenere il tuo daily con 375watt di TDP applicato, consumavi 360watt.:)
https://www.hwupgrade.it/forum/showpost.php?p=48097537&postcount=22954

340w. la frequenza varia tra i 2010 e i 1980. ram a 20Gbps. 0.925v

0,912v, 2055/20000. quasi fisso su 1995/2010.

Quindi riepilogando:
A 350 watt , considerando anche i tagli dei gradi, lui riesce a tenere dei minimi da 1995-2010.
A 340 senza taglio PL, scende a 1980 x 0,925v.

Ciò che diventa invasivo per lui è salire sino a 21 gb/s, in quanto ha un bus più complesso ed energivoro, insieme alla cache.

Chiaro che se anche lui potesse mettere 375watt, salvo i tagli dei gradi, stava sempre sopra i 2ghz.
La differenza sul core è elevata a pari chip grafico, ed hwinfo lo sottolinea.:)

Dono89
03-02-2023, 14:09
Ma stavamo parlando di come facesse a tenere clock così elevati e con certi consumi, ed io ti ho mostrato il ruolo del TDP.
Lui ti ha dimostrato che può tenere clock molto più elevati dei tuoi/nostri, consumando poco, mentre tu asserivi che era impossibile in quanto tu per tenere il tuo daily con 375watt di TDP applicato, consumavi 360watt.:)
https://www.hwupgrade.it/forum/showpost.php?p=48097537&postcount=22954

340w. la frequenza varia tra i 2010 e i 1980. ram a 20Gbps. 0.925v

0,912v, 2055/20000. quasi fisso su 1995/2010.

Quindi riepilogando:
A 350 watt , considerando anche i tagli dei gradi, lui riesce a tenere dei minimi da 1995-2010.
A 340 senza taglio PL, scende a 1980 x 0,925v.

Ciò che diventa invasivo per lui è salire sino a 21 gb/s, in quanto ha un bus più complesso ed energivoro, insieme alla cache.

Chiaro che se anche lui potesse mettere 375watt, salvo i tagli dei gradi, stava sempre sopra i 2ghz.
La differenza sul core è elevata a pari chip grafico, ed hwinfo lo sottolinea.:)

Tutto parte da qui
https://www.hwupgrade.it/forum/showthread.php?p=48096902#post48096902

mio messaggio:
Al massimo i 2025 li tiene con 2/3 titoli.
Basta anche un semplice 3dmark o superposition a limitarla, sopratutto con un bios da 350W

e infatti al successivo screen, con superposition, la scheda è fissa in PL, non che ogni tanto viene limitata, è proprio fissa verde, questo a 0,925v - 2025
https://postlmg.cc/LYDsTrY0

Nei successivi test, complici frequenze più basse di quasi 100Mhz ed un voltaggio ridotto, non viene limitata, quindi il fatto che a 350W regga frequenze di 2ghz di core senza incappare in pl non è corretto. Non nel senso che sbatte ogni tanto e pace, nel senso che viene perennemente limitata dai 350W e quindi non li tiene. Questo a prescindere dalla scheda migliore/peggiore.

Poi si può trovare dove esattamente trova lo scoglio dei 350w, ma mi sembra evidente che 1950mhz (con 900mV) non sbatte nei 350W e con 2025/925mV è fissa limitata.
largo circa sarà 1965 ed è un ottimo valore considerando la bassa tensione, ma è ben lontano dai 2055mhz (tanto più con un voltaggio maggiore) inizialmente detti.

DMD
03-02-2023, 15:12
Porca miseria desidero acquistare una 4080 Gigabyte Gaming su Amazonia , ma hanno la vetrina con le foto del modello Aero nel titolo risulta il modello Gaming OC come nelle informazioni dell'articolo e nelle specifiche del prodotto riportano il modello Aero.
Invece la vetrina del Modello Gaming ha la foto corrispondente esatta, il titolo è doppio sia con Aero che Gaming, nella descrizione risulta Aero e nelle specifiche del prodotto Gaming.
Ho telefonato 4 volte e ogni volta l'operatore mi dice una cosa diversa, la cosa è seccante, in quanto se arriva un prodotto sbagliato per il reso occorro 30 giorni, vista la cifra , e poi rifare spedizione.
Ma possibile che non riescano ad essere chiari e sapere cosa spediscono.
Sono andato su altro venditore, speriamo bene, adesso iniziano le fibrillazioni. :sperem:

mikael84
04-02-2023, 00:29
Tutto parte da qui
https://www.hwupgrade.it/forum/showthread.php?p=48096902#post48096902

mio messaggio:
Al massimo i 2025 li tiene con 2/3 titoli.
Basta anche un semplice 3dmark o superposition a limitarla, sopratutto con un bios da 350W

e infatti al successivo screen, con superposition, la scheda è fissa in PL, non che ogni tanto viene limitata, è proprio fissa verde, questo a 0,925v - 2025
https://postlmg.cc/LYDsTrY0

Nei successivi test, complici frequenze più basse di quasi 100Mhz ed un voltaggio ridotto, non viene limitata, quindi il fatto che a 350W regga frequenze di 2ghz di core senza incappare in pl non è corretto. Non nel senso che sbatte ogni tanto e pace, nel senso che viene perennemente limitata dai 350W e quindi non li tiene. Questo a prescindere dalla scheda migliore/peggiore.

Poi si può trovare dove esattamente trova lo scoglio dei 350w, ma mi sembra evidente che 1950mhz (con 900mV) non sbatte nei 350W e con 2025/925mV è fissa limitata.
largo circa sarà 1965 ed è un ottimo valore considerando la bassa tensione, ma è ben lontano dai 2055mhz (tanto più con un voltaggio maggiore) inizialmente detti.

Appunto, in quel post scrivi::)
"La mia 3080, arriva al limite dei 370W con 0,9V e 1920mhz, com'è possibile che la tua con più cuda, con una tensione maggiore e sopratutto una frequenza sensibilmente più alta consumi allo stesso modo?"

Dopo mi hai chiesto di intervenire se potevo. Bene, vi ho fatto confrontare le due GPU, dicendoti che tu avevi quei consumi per via del PL sparato e la 3080 12 è più binnata lato core. Infatti l'abbiamo visto via hwinfo.

Ora, se la domanda è, se lui tenesse i 2055 fissi a 350 no, ma di fatto sta sui 1980 e i 2025mhz, a 350watt.
Io non gli ho fatti i test, ho solo fatto da interprete.:p

Non ha il bios per andare oltre, ma a 370w, dei tuoi 0,9v e 1920, poteva fare ancora meglio indubbiamente.
Io pur con 375watt, neppure ci provo a dare 2055 anche con i tagli.;)

Dono89
04-02-2023, 18:40
Appunto, in quel post scrivi::)
"La mia 3080, arriva al limite dei 370W con 0,9V e 1920mhz, com'è possibile che la tua con più cuda, con una tensione maggiore e sopratutto una frequenza sensibilmente più alta consumi allo stesso modo?"

Dopo mi hai chiesto di intervenire se potevo. Bene, vi ho fatto confrontare le due GPU, dicendoti che tu avevi quei consumi per via del PL sparato e la 3080 12 è più binnata lato core. Infatti l'abbiamo visto via hwinfo.

Ora, se la domanda è, se lui tenesse i 2055 fissi a 350 no, ma di fatto sta sui 1980 e i 2025mhz, a 350watt.
Io non gli ho fatti i test, ho solo fatto da interprete.:p

Non ha il bios per andare oltre, ma a 370w, dei tuoi 0,9v e 1920, poteva fare ancora meglio indubbiamente.
Io pur con 375watt, neppure ci provo a dare 2055 anche con i tagli.;)

Mikael stai facendo confusione con la successione del discorso, esci dal tecnico :D

370W la mia li fa in game a 1920 (requiem), non nei bench, dove arriva a 350W a 1935. Il commento di black iniziale era che la teneva in game a 2055. Non entro nel merito stabilità, ma sulla fattibilità; una 3080 per quanto binnata non può consumare 350W a oltre 2ghz di core (e il bus da 384 compensa pure il bin, ma sorvoliamo).

Il punto iniziale era: Io faccio in game pesante 370W con 1920MHz, te come fai ad avere un consumo inferiore, un voltaggio maggiore e oltre 100MHz in più di core?

Poi abbiamo fatto il test, dove si, arrivava di picco a 2050mhz, ma veniva tagliata continuamente. Non in modo saltuario, ma fisso. Quindi i 2055 non sono reali.
Così abbiamo fatto a pari configurazione e dove io arrivavo a 350W, lui arrivava a 330W. Effettivamente consuma meno, ma non di quanto basta per compensare i +100mhz e +mV. Sappiamo tutti che non ci passano 20W da 1935 a 2055. Quindi non c'erano più quei 60/70W, che si credevano all'inizio e che sarebbero stati sufficienti a tenere la scheda a 2055.
La sua scheda consuma meno, per mille motivi, ma non tiene assolutamente i 2055 e nemmeno 2ghz di core con 350W di PL.
I test oltre a capire che la sua è meglio binnata, servivano a far capire quanto consumasse con un oc normale e da li capire il punto di partenza in base al PL. Se consumi a 1935 330W, non puoi arrivare a +100MHz, con un voltaggio maggiore rimanendo nei 20W (330w a 1935 vs xW a 2055)

A meno che non fai tagliare di continuo dal pl, ed infatti è ciò che è emerso qui:
https://postlmg.cc/LYDsTrY0

kean3d
04-02-2023, 19:15
Shadow of Tomb Raider bench 1080p
rtx3060
5700x

ultra setting, dlss quality, rt ultra
gsync
dlss 2.51
ultimi drivers 528.24

https://i.postimg.cc/w3Jk0yQd/sotr-3060-5700x-ultra.jpg (https://postimg.cc/w3Jk0yQd)

non male la piccola, 147w di picco

Black"SLI"jack
05-02-2023, 00:17
Mikael stai facendo confusione con la successione del discorso, esci dal tecnico :D

370W la mia li fa in game a 1920 (requiem), non nei bench, dove arriva a 350W a 1935. Il commento di black iniziale era che la teneva in game a 2055. Non entro nel merito stabilità, ma sulla fattibilità; una 3080 per quanto binnata non può consumare 350W a oltre 2ghz di core (e il bus da 384 compensa pure il bin, ma sorvoliamo).

Il punto iniziale era: Io faccio in game pesante 370W con 1920MHz, te come fai ad avere un consumo inferiore, un voltaggio maggiore e oltre 100MHz in più di core?

Poi abbiamo fatto il test, dove si, arrivava di picco a 2050mhz, ma veniva tagliata continuamente. Non in modo saltuario, ma fisso. Quindi i 2055 non sono reali.
Così abbiamo fatto a pari configurazione e dove io arrivavo a 350W, lui arrivava a 330W. Effettivamente consuma meno, ma non di quanto basta per compensare i +100mhz e +mV. Sappiamo tutti che non ci passano 20W da 1935 a 2055. Quindi non c'erano più quei 60/70W, che si credevano all'inizio e che sarebbero stati sufficienti a tenere la scheda a 2055.
La sua scheda consuma meno, per mille motivi, ma non tiene assolutamente i 2055 e nemmeno 2ghz di core con 350W di PL.
I test oltre a capire che la sua è meglio binnata, servivano a far capire quanto consumasse con un oc normale e da li capire il punto di partenza in base al PL. Se consumi a 1935 330W, non puoi arrivare a +100MHz, con un voltaggio maggiore rimanendo nei 20W (330w a 1935 vs xW a 2055)

A meno che non fai tagliare di continuo dal pl, ed infatti è ciò che è emerso qui:
https://postlmg.cc/LYDsTrY0

mai detto che la tenevo a 2055mhz fissi. ho detto che i 2Ghz con Ampere sono fattibili (usavo profilo 0,925v da 2025/20Gbps, che in game spesso si traduce con frequenze medie intorno ai 2Ghz) PL permettendo e ovviamente tipologia di calcolo. le 3080 12GB sono quasi tutte frenate dal PL da 350w, nonostante siano chip più binnati. altra discriminante la temperatura che porta ulteriori tagli di frequenza, aspetto da non sottovalutare assolutamente.

https://postimg.cc/sG3stvzj

se riprendi il profilo uguale al tuo, vedi che la scheda non è limita dal PL ma anche dal voltaggio e dalla frequenza
così come salendo a 1965mhz a livello di curva, a livello di bench riesco ancora a tenere costante la frequenza. e i tagli rarissimi sono dovuti al superamento della soglia dei 40 gradi. e il perfcap segnala sono in alcuni casi che la scheda è frenata dal PL.

se poi a livello di prestazioni 50-100mhz non cambiano la vita, sono il primo a dirlo. soprattutto se te la stai giocando all'ultimo watt. ripeto vorrei provare questa scheda con un bios che mi dia qualche margine in più di manovra. visto e considerato che alzare troppo la ram mi penalizza sui consumi.

Dono89
06-02-2023, 08:22
mai detto che la tenevo a 2055mhz fissi. ho detto che i 2Ghz con Ampere sono fattibili (usavo profilo 0,925v da 2025/20Gbps, che in game spesso si traduce con frequenze medie intorno ai 2Ghz) PL permettendo e ovviamente tipologia di calcolo. le 3080 12GB sono quasi tutte frenate dal PL da 350w, nonostante siano chip più binnati. altra discriminante la temperatura che porta ulteriori tagli di frequenza, aspetto da non sottovalutare assolutamente.

https://postimg.cc/sG3stvzj

se riprendi il profilo uguale al tuo, vedi che la scheda non è limita dal PL ma anche dal voltaggio e dalla frequenza
così come salendo a 1965mhz a livello di curva, a livello di bench riesco ancora a tenere costante la frequenza. e i tagli rarissimi sono dovuti al superamento della soglia dei 40 gradi. e il perfcap segnala sono in alcuni casi che la scheda è frenata dal PL.

se poi a livello di prestazioni 50-100mhz non cambiano la vita, sono il primo a dirlo. soprattutto se te la stai giocando all'ultimo watt. ripeto vorrei provare questa scheda con un bios che mi dia qualche margine in più di manovra. visto e considerato che alzare troppo la ram mi penalizza sui consumi.

Infatti il mio punto era proprio sui 2ghz, che a meno di non avere schede da 3x8pin sarai sempre limitato dal PL, quando è emerso che la tua scheda aveva addirittura 350W ho reputato la cosa impossibile e da li è partito tutto.

Il discorso inizialmente era che a liquido si raggiungono frequenze superiori, consumi minori ecc, cosa che magari sarà anche vera, ma non era questo il caso, infatti hai trovato lo scoglio intorno ai 350W già a 1965 (questo perchè hai un voltaggio veramente basso, ma tant'è).

Il mio discorso era solo uno: una scheda ampere a 2GHz non può non sbattere nel PL e non subire tagli. Anche con voltaggi ottimi e infatti i test l'hanno dimostrato.
A 2GHz nel bench avevi tagli continui

Inoltre abbiamo testato con superposition...se provi requiem vedrai che dovrai abbassare e di parecchio. Arrivando a perdere quasi 100MHz dai 2GHz iniziali.
Nessuna fine del mondo, ma non sono 2GHz.

Molti hanno provato a mettere i bios più carrozzati in schede che li avevano limitati. Cos'è successo? a parte qualche brik, non ci sono stati vantaggi è come se venissero indicati consumi maggiori su hwinfo, ma non consumava effettivamente di più avendo sempre gli stessi limiti di 350W

Black"SLI"jack
06-02-2023, 09:08
Bios con PL maggiorato su schede limitate, portano dei vantaggi. quanti e quali dipende da scheda a scheda.

per esempio la mia zotac 2080ti amp (2x8pin) con bios stock ha un PL di 300w. messo il bios della KFA2 che mi permette di spingermi fino a 380w. su questa scheda ho trovato il suo profilo ottimale a 2085/15000 a 1v con un consumo max di 360w ma di media sui 340w, avendo quindi un certo margine sul PL. ovviamente è liquidata e frequenze praticamente costanti in tutte le situazioni-scheda da oltre 2145mhz sul core. per essere una reference con 2 connettori, direi che non è male.

poi prendo la mia 3090 Palit (2x8pin), bios stock da 350/365w. Messo su il Galax da 390w. come già detto la 3090 è messa peggio della 3080 12GB lato consumi, anche per colpa della maggiore ram. già con il bios stock sei al limite del PL. Proprio sabato sera, facevo dei check con un amico anche lui con una 3090 PNY con bios da 350w. check nati dal fatto che sullo stesso gioco (Snowrunner), lui aveva la scheda al 99% di uso, mentre la mia scendeva anche al 50% ma con prestazioni dimezzate. non era un problema di cpu, perché lui con un 9900k@5ghz, io con un 5950x (ottimizzato con PBO e CO), lui cpu abbastanza utilizzata, la mia che si grattava i cosidetti. bench vari tutti allineati, solo Snowrunner anomalo. Poi ho scoperto che sul profilo del gioco nei driver Nvidia avevo l'MFAA abilitato, mah...
venendo ai test, a parità di bench e di profilo 1950/20Gbps a 0,912v, la mia tiene più facilmente frequenze costanti sui 1935mhz (1 taglio subito per la temp anche se a liquido, appena si passa i 40 gradi), la sua con frequenze assai più ballerine. quando poi il bench diventa più impegnativo o si sfrutta l'RT il distacco aumenta.

poi guardo la mia 4090 FE, anche essa liquidata, e i 600w di max PL non li prendi nemmeno nei peggiori dei casi. max ho visto i 550w nel benchmark Boundary maxando il tutto e senza l'uso di DLSS e alzando pure al max il voltaggio.

kean3d
06-02-2023, 17:57
lunga session con Fallout 4 (neanche troppo) moddato
rtx3060 oc/uv
5700x pbo+co

vram usata: 11.5gb praticamente costante :fagiano:
1080p

https://i.postimg.cc/SJMCDxLj/f4-5700-co-25.png (https://postimg.cc/SJMCDxLj)

RedPrimula
06-02-2023, 18:47
Ho installato gli ultimi driver e ho notato un lieve incremento degli fps in Horizon. Altri titoli per fare un paragone non ne ho.

kean3d
06-02-2023, 21:37
Ho installato gli ultimi driver e ho notato un lieve incremento degli fps in Horizon. Altri titoli per fare un paragone non ne ho.

da qualche release a questa parte la 3060 è migliorata un botto,
coi penultimi soprattutto

s12a
08-02-2023, 12:39
Qualche giorno fa avevo chiesto delle prestazioni di una RTX3090 con power limit intorno ai 250W.

Il motivo è che ho preso una RTX3090 per machine learning e simili (mi servivano 24 GB di VRAM) che installerò su una configurazione equivalente alla mia fra qualche giorno, ma ho notato che con il mio alimentatore Seasonic Focus GX-550 il PC si spegne se imposto il power limit oltre il 45% e faccio partire certi benchmark gaming (ad esempio Unigine Superposition). Sicuramente il problema è causato da picchi di corrente di brevissima durata che probabilmente questo benchmark provoca, dato che 370W * 0.45 sarebbero solo 185W se fossero continuativi.

Avevo già in mente di prendere un alimentatore più potente dello stesso modello per essere più sicuro, ma se già al 45% di power limit il PC si può spegnere, non so se un Focus GX-850 reggerebbe. Qualche suggerimento a riguardo?

floyd2
08-02-2023, 14:18
Qualche giorno fa avevo chiesto delle prestazioni di una RTX3090 con power limit intorno ai 250W.



Il motivo è che ho preso una RTX3090 per machine learning e simili (mi servivano 24 GB di VRAM) che installerò su una configurazione equivalente alla mia fra qualche giorno, ma ho notato che con il mio alimentatore Seasonic Focus GX-550 il PC si spegne se imposto il power limit oltre il 45% e faccio partire certi benchmark gaming (ad esempio Unigine Superposition). Sicuramente il problema è causato da picchi di corrente di brevissima durata che probabilmente questo benchmark provoca, dato che 370W * 0.45 sarebbero solo 185W se fossero continuativi.



Avevo già in mente di prendere un alimentatore più potente dello stesso modello per essere più sicuro, ma se già al 45% di power limit il PC si può spegnere, non so se un Focus GX-850 reggerebbe. Qualche suggerimento a riguardo?

Un focus gx-850 dovrebbe reggere ben di peggio.
Sei sicuro che con un pl impostato al 45%, quindi con un consumo massimo di 185w per la GPU, il PC si spenga? Quale è il resto della configurazione?
Perché se dò per scontato che la GPU consuma max 185w, vuol dire che per spegnersi il PC il resto dei componenti deve consumare oltre 400w? C'è qualcosa che non mi torna... o l'alimentatore è andato (non credo ma tutto può essere) o la scheda non è limitata sul pl (già più probabile).

mattxx88
08-02-2023, 14:26
Qualche giorno fa avevo chiesto delle prestazioni di una RTX3090 con power limit intorno ai 250W.

Il motivo è che ho preso una RTX3090 per machine learning e simili (mi servivano 24 GB di VRAM) che installerò su una configurazione equivalente alla mia fra qualche giorno, ma ho notato che con il mio alimentatore Seasonic Focus GX-550 il PC si spegne se imposto il power limit oltre il 45% e faccio partire certi benchmark gaming (ad esempio Unigine Superposition). Sicuramente il problema è causato da picchi di corrente di brevissima durata che probabilmente questo benchmark provoca, dato che 370W * 0.45 sarebbero solo 185W se fossero continuativi.

Avevo già in mente di prendere un alimentatore più potente dello stesso modello per essere più sicuro, ma se già al 45% di power limit il PC si può spegnere, non so se un Focus GX-850 reggerebbe. Qualche suggerimento a riguardo?

Tenendo il PL di targa della scheda io con un SF750 (quelli mini per farti capire) mai avuto problemi, 3090FE
Mi spegneva il PC solo in OC massimo con 1.1v a 2145mhz e scheda shuntata (550w di assorbimento solo scheda)

s12a
08-02-2023, 14:27
Un focus gx-850 dovrebbe reggere ben di peggio.
Sei sicuro che con un pl impostato al 45%, quindi con un consumo massimo di 185w per la GPU, il PC si spenga? Quale è il resto della configurazione?
Perché se dò per scontato che la GPU consuma max 185w, vuol dire che per spegnersi il PC il resto dei componenti deve consumare oltre 400w? C'è qualcosa che non mi torna... o l'alimentatore è andato (non credo ma tutto può essere) o la scheda non è limitata sul pl (già più probabile).

Sì, ho impostato il PL con Afterburner e verificato i valori con GPU-z anche usando altri programmi. Solo con Unigine Superposition mediante benchmark 1080p Extreme o superiore il PC si spegne.

Alla fine, più che una questione di power limit sembra essere principalmente la frequenza ad essere indirettamente la causa. Ho provato ad impostare -400 MHz ed ora va senza spegnersi anche con power limit al 100% (370W), certo devo usare la CPU a default senza boost (125W) che altrimenti sono al limite dell'alimentatore. Impostare il PL della GPU al 70-80% sembra più appropriato.

Il problema è probabilmente il mio Seasonic che ha l'overcurrent protection (OCP) troppo sensibile ai picchi di carico, e tali picchi probabilmente diventano più intensi a frequenze operative più elevate; è un problema noto per alcuni alimentatori di questa marca ma pensavo che avessero risolto con la mia serie:

https://www.reddit.com/r/nvidia/comments/k6axtc/fyi_seasonic_and_rtx_3000_users_w_shutdowns/

La GPU in questione è una MSI RTX3090 GAMING X TRIO 24G, a proposito.

frafelix
08-02-2023, 14:59
Ciao s12a, hai cambiato piani? Mi ricordavo che guardavi la 3060... Comunque sei proprio al limite con quell'alimentatore.
Se abbassi la frequenza anche senza limitare il pl, avrai meno picchi di corrente perché la gpu sale meno di frequenza con il turbo e quindi non richiede più volt sulla gpu

s12a
08-02-2023, 15:15
Ciao s12a, hai cambiato piani? Mi ricordavo che guardavi la 3060... Comunque sei proprio al limite con quell'alimentatore.
Sì, alla fine si era rivelata limitativa per quello che dovevo farci e non un grandissimo upgrade lato gaming per il prezzo d'acquisto. Inoltre il modello che avevo temporaneamente preso aveva problemi di rumorosità anomala. Dato il periodo festivo (l'avevo presa ad inizio Dicembre) ho aspettato un po' prima di ordinare qualcos'altro.

L'attuale 3090 sarà però installata in un PC diverso dal mio personale, in upgrade ad una GTX1070 8GB; io la userò in remoto per rendering 3D/path tracing e AI/machine learning e mi prenderò la 1070 per il mio PC in parziale upgrade per la mia RX480 4GB. Per il gaming/viewport 3d la 1070 dovrebbe andarmi bene ancora per un po' (4GB di VRAM sono oramai troppo pochi).

Per l'alimentatore per la RTX3090, ho ordinato un Corsair RM850; dovrebbe essere adatto e non avere problemi di eccessiva sensibilità dell'OCP come i Seasonic Focus GX.

Se abbassi la frequenza anche senza limitare il pl, avrai meno picchi di corrente perché la gpu sale meno di frequenza con il turbo e quindi non richiede più volt sulla gpu
Ho notato. Al momento con -400 MHz la frequenza massima è 1560 MHz e non sembra dare problemi neanche con Furmark. A -300 MHz il PC ancora si spegneva con Unigine Superposition.

terranux
11-02-2023, 09:35
Qualche giorno fa avevo chiesto delle prestazioni di una RTX3090 con power limit intorno ai 250W.

Il motivo è che ho preso una RTX3090 per machine learning e simili (mi servivano 24 GB di VRAM) che installerò su una configurazione equivalente alla mia fra qualche giorno, ma ho notato che con il mio alimentatore Seasonic Focus GX-550 il PC si spegne se imposto il power limit oltre il 45% e faccio partire certi benchmark gaming (ad esempio Unigine Superposition). Sicuramente il problema è causato da picchi di corrente di brevissima durata che probabilmente questo benchmark provoca, dato che 370W * 0.45 sarebbero solo 185W se fossero continuativi.

Avevo già in mente di prendere un alimentatore più potente dello stesso modello per essere più sicuro, ma se già al 45% di power limit il PC si può spegnere, non so se un Focus GX-850 reggerebbe. Qualche suggerimento a riguardo?

cioè hai messo un 550 con una 3090?

s12a
11-02-2023, 10:20
cioè hai messo un 550 con una 3090?

Sì, come soluzione temporanea in attesa dell'alimentatore nuovo. Ma la mia aspettativa era che con un buon alimentatore non sarebbero dovuti esserci problemi con l'uso (saltuario) in prossimità del massimo del carico, od in altre parole che il power limit della GPU funzionasse a dovere.

L'eccessiva sensibilità comunque sembra sia una particolarità di questi Seasonic Focus GX, anche di potenza superiore. Se non fosse per i picchi di corrente causati dalla GPU ad alte frequenze di funzionamento che apparentemente superano i limiti di protezione dell'alimentatore, andrebbe bene.

Con la GPU a downcloccata a -400 MHz da Afterburner, tali picchi sembrano inferiori e la configurazione regge anche ad oltre 500W di consumo complessivo.

OrazioOC
11-02-2023, 11:51
Sì, alla fine si era rivelata limitativa per quello che dovevo farci e non un grandissimo upgrade lato gaming per il prezzo d'acquisto. Inoltre il modello che avevo temporaneamente preso aveva problemi di rumorosità anomala. Dato il periodo festivo (l'avevo presa ad inizio Dicembre) ho aspettato un po' prima di ordinare qualcos'altro.

L'attuale 3090 sarà però installata in un PC diverso dal mio personale, in upgrade ad una GTX1070 8GB; io la userò in remoto per rendering 3D/path tracing e AI/machine learning e mi prenderò la 1070 per il mio PC in parziale upgrade per la mia RX480 4GB. Per il gaming/viewport 3d la 1070 dovrebbe andarmi bene ancora per un po' (4GB di VRAM sono oramai troppo pochi).

Per l'alimentatore per la RTX3090, ho ordinato un Corsair RM850; dovrebbe essere adatto e non avere problemi di eccessiva sensibilità dell'OCP come i Seasonic Focus GX.


Ho notato. Al momento con -400 MHz la frequenza massima è 1560 MHz e non sembra dare problemi neanche con Furmark. A -300 MHz il PC ancora si spegneva con Unigine Superposition.
Falco75 vibes. :asd:

terranux
11-02-2023, 12:50
Sì, come soluzione temporanea in attesa dell'alimentatore nuovo. Ma la mia aspettativa era che con un buon alimentatore non sarebbero dovuti esserci problemi con l'uso (saltuario) in prossimità del massimo del carico, od in altre parole che il power limit della GPU funzionasse a dovere.

L'eccessiva sensibilità comunque sembra sia una particolarità di questi Seasonic Focus GX, anche di potenza superiore. Se non fosse per i picchi di corrente causati dalla GPU ad alte frequenze di funzionamento che apparentemente superano i limiti di protezione dell'alimentatore, andrebbe bene.

Con la GPU a downcloccata a -400 MHz da Afterburner, tali picchi sembrano inferiori e la configurazione regge anche ad oltre 500W di consumo complessivo.
io non ci scommetterei. l'elettronica del focus è in altri brand e se fosse vero ci sarebbero tante segnalazioni. anche quì in questo forum e specialmente su reddit. il tuo è un problema normale. 550w sono pochi anzi sconsigliatissimo.

kean3d
11-02-2023, 13:24
madò un 550w con una 3090 è un azzardo pure
con Seasonic o Superflower di alto livello :D
Certe psu reggono si carichi decisamente maggiori di quelli da etichetta, ma
va sotto di corrente , più che di potenza imho 👍
Ottimo però avere dei riscontri al riguardo.
Una 3080 un buon 550w la regge, al limite ma ce la fa

s12a
11-02-2023, 14:46
Faccio notare nuovamente che avevo provato ad impostare il power limit anche al 50% (Il 100% della scheda è pari a 370W), ma il computer continuava a spegnersi sotto carico nei benchmark. Solo al 45% o giù di lì sembrava stabile.

Ammetto che usare una RTX3090 a piena potenza con un alimentatore da 550W, anche se buono, non è particolarmente indicato, ma pensavo di non avere problemi semplicemente impostando un power limit ad un livello inferiore.

Agire sul power limit non è stato invece sufficiente ed ho dovuto diminuire la frequenza di funzionamento—evidentemente il PL funziona con tempistiche lente, mentre tagliare la frequenza massima impedisce sul nascere l'insorgenza di picchi di corrente istantanei che possono far spegnere l'alimentatore causa OCP sensibile. Al momento ho -400 MHz e PL all' 80%.

io non ci scommetterei. l'elettronica del focus è in altri brand e se fosse vero ci sarebbero tante segnalazioni. anche quì in questo forum e specialmente su reddit. il tuo è un problema normale. 550w sono pochi anzi sconsigliatissimo.
Quello dei Seasonic con le RTX3000 di fascia alta era un problema noto, ma pensavo che il mio modello (Focus GX) fosse esente dalla cosa: https://www.reddit.com/r/nvidia/comments/k6axtc/fyi_seasonic_and_rtx_3000_users_w_shutdowns/

terranux
11-02-2023, 16:27
Faccio notare nuovamente che avevo provato ad impostare il power limit anche al 50% (Il 100% della scheda è pari a 370W), ma il computer continuava a spegnersi sotto carico nei benchmark. Solo al 45% o giù di lì sembrava stabile.

Ammetto che usare una RTX3090 a piena potenza con un alimentatore da 550W, anche se buono, non è particolarmente indicato, ma pensavo di non avere problemi semplicemente impostando un power limit ad un livello inferiore.

Agire sul power limit non è stato invece sufficiente ed ho dovuto diminuire la frequenza di funzionamento—evidentemente il PL funziona con tempistiche lente, mentre tagliare la frequenza massima impedisce sul nascere l'insorgenza di picchi di corrente istantanei che possono far spegnere l'alimentatore causa OCP sensibile. Al momento ho -400 MHz e PL all' 80%.


Quello dei Seasonic con le RTX3000 di fascia alta era un problema noto, ma pensavo che il mio modello (Focus GX) fosse esente dalla cosa: https://www.reddit.com/r/nvidia/comments/k6axtc/fyi_seasonic_and_rtx_3000_users_w_shutdowns/
problema noto. con 10 segnalazioni. leggendo viene fuori questo:Non è solo la serie Focus in quella lista. Sono molti. poi con i nuovi driver sembra che sano spariti i problemi. aggiungo

Ubro92
11-02-2023, 18:56
Appena rilasciata la nuova DLL del DLSS 3.1.1:

https://cdn.videocardz.com/1/2023/02/NVIDIA-DLSS31-768x433.png

https://www.techpowerup.com/download/nvidia-dlss-dll/?ref=dtf.ru

Vash88
11-02-2023, 20:02
Faccio notare nuovamente che avevo provato ad impostare il power limit anche al 50% (Il 100% della scheda è pari a 370W), ma il computer continuava a spegnersi sotto carico nei benchmark. Solo al 45% o giù di lì sembrava stabile.

Ammetto che usare una RTX3090 a piena potenza con un alimentatore da 550W, anche se buono, non è particolarmente indicato, ma pensavo di non avere problemi semplicemente impostando un power limit ad un livello inferiore.

Agire sul power limit non è stato invece sufficiente ed ho dovuto diminuire la frequenza di funzionamento—evidentemente il PL funziona con tempistiche lente, mentre tagliare la frequenza massima impedisce sul nascere l'insorgenza di picchi di corrente istantanei che possono far spegnere l'alimentatore causa OCP sensibile. Al momento ho -400 MHz e PL all' 80%.


Quello dei Seasonic con le RTX3000 di fascia alta era un problema noto, ma pensavo che il mio modello (Focus GX) fosse esente dalla cosa: https://www.reddit.com/r/nvidia/comments/k6axtc/fyi_seasonic_and_rtx_3000_users_w_shutdowns/

IO ho tenuto la 3080 con un 600W (Corsair SF600) per più di un anno in OC e la 3090 per un paio di settimane (reggeva senza problemi a default ma non in OC) mentre aspettavo l'EVGA SuperNOVA G6 1000 Watt

Sicuramente l'OCP di quell'alimentatore è sensibile ed è comunque inadatto con 550W.

Chi diceva che il passaggio da 3080 10GB a 3090 24GB era inutile voglio vedere cosa dice dopo l'uscita di Hogwarts Legacy :asd:

Ubro92
11-02-2023, 20:33
Considerando che con la 3080ti in 4K fai 27fps e su 12GB ne alloca 11, direi che la vram è proprio l'ultimo dei pensieri...

https://i.postimg.cc/mDNzgNdR/4k.png https://i.postimg.cc/qqJthhYK/vram.png


E' un titolo ottimizzato con i piedi e con un dettaglio grafico che francamente è ben lontano dalle risorse che richiede, il dettaglio ultra è palesemente appannaggio per sfruttare il DLSS3:

https://i.postimg.cc/859pDFGD/frame-generator.png

Vedremo con le prossime patch e driver come si comporta, anche perchè il RT è mezzo buggato.

Sealea
11-02-2023, 21:41
Hogwarts l'avrei giocato super volentieri al D1 ma ormai so com'è l'andazzo e ho fatto bene a non prenderlo. imbarazzanti, non si salva più nessuno ormai :mbe:

devil_mcry
11-02-2023, 22:02
Hogwarts l'avrei giocato super volentieri al D1 ma ormai so com'è l'andazzo e ho fatto bene a non prenderlo. imbarazzanti, non si salva più nessuno ormai :mbe:

Ma io ci sto giocando e gira benissimo senza RT in 4k dlss su qualità maxato

Il problema del RT è un altro, poi su Hogwarts fa abbastanza MEH

Potevi prenderlo tranquillamente tra l'altro è molto molto bello

Sealea
11-02-2023, 22:26
Ma io ci sto giocando e gira benissimo senza RT in 4k dlss su qualità maxato

Il problema del RT è un altro, poi su Hogwarts fa abbastanza MEH

Potevi prenderlo tranquillamente tra l'altro è molto molto bello

Ma lo prendo di sicuro, tempo lo stabilizzino un po’

Ubro92
11-02-2023, 22:27
Ma io ci sto giocando e gira benissimo senza RT in 4k dlss su qualità maxato

Il problema del RT è un altro, poi su Hogwarts fa abbastanza MEH

Potevi prenderlo tranquillamente tra l'altro è molto molto bello


Ma infatti il problema del gioco è che oltre il dettaglio Alto non c'è un vero miglioramento grafico, cioè il gioco è quello e viene solo inutilmente appesantito.

Il RT è gestito malissimo infatti alcuni utenti giocando con i file di configurazione hanno migliorato un pò la resa ma è veramente implementato male.

https://www.dsogaming.com/articles/here-is-how-you-can-significantly-improve-the-quality-of-ray-tracing-shadows-ambient-occlusion-reflections-in-hogwarts-legacy/

Diciamo che serve una patch correttiva, e per ora anche lato driver solo intel ha rilasciato i driver con un profilo specifico per HL, per nvidia e amd verrà rilasciato alla prossima release.

Però tralasciando il discorso grafica/risorse, il gioco ha un bel gameplay e se ti piace il mondo di HP ha un bel reparto artistico quindi merita un occhio.

Personalmente oramai i giochi al day one non li valuta praticamente mai, aspetto sempre il solito ciclo di patch e dlc.

bagnino89
13-02-2023, 10:44
Faccio una domanda sperando di non essere OT.

Chiedo a chi possiede Dead Space remake: anche a voi, con FPS sbloccati, la GPU sta al 100% ma assorbe molta meno potenza del normale?

Mi spiego meglio con un esempio. Su Requiem, scena con GPU al 100%, la scheda assorbe 220 W e rotti. Su Dead Space, sto mediamente sui 180 W (GPU sempre al 100%). Sembra che la GPU non sia usata al meglio. Vi risulta?*

*Oltre all'odioso stuttering, programmato da cani...

Dono89
13-02-2023, 14:09
Faccio una domanda sperando di non essere OT.

Chiedo a chi possiede Dead Space remake: anche a voi, con FPS sbloccati, la GPU sta al 100% ma assorbe molta meno potenza del normale?

Mi spiego meglio con un esempio. Su Requiem, scena con GPU al 100%, la scheda assorbe 220 W e rotti. Su Dead Space, sto mediamente sui 180 W (GPU sempre al 100%). Sembra che la GPU non sia usata al meglio. Vi risulta?*

*Oltre all'odioso stuttering, programmato da cani...

non so il remake di dead space, ma ti dico solo che per un discorso di consumi/PL, requiem mi ha fatto cambiare l'oc della 3080.

Mai visto un gioco (sopratutto nella fase iniziale, poi migliora) che consumasse così tanto

floyd2
13-02-2023, 14:20
Faccio una domanda sperando di non essere OT.



Chiedo a chi possiede Dead Space remake: anche a voi, con FPS sbloccati, la GPU sta al 100% ma assorbe molta meno potenza del normale?



Mi spiego meglio con un esempio. Su Requiem, scena con GPU al 100%, la scheda assorbe 220 W e rotti. Su Dead Space, sto mediamente sui 180 W (GPU sempre al 100%). Sembra che la GPU non sia usata al meglio. Vi risulta?*



*Oltre all'odioso stuttering, programmato da cani...

Beh ma può essere che un gioco sfrutti la GPU in maniera diversa e quindi abbia un assorbimento maggiore in senso assoluto. Banalmente, se un gioco sfrutta gli rt cores e un altro no, può risultare in un assorbimento maggiore, seppur a parità di "utilizzo" della GPU.

Se gioco a Pacman, utilizzo GPU 100%, farò magari 1000fps, ma sto usando solo una parte della GPU. Se gioco a Cyberpunk, utilizzo tutte le unità, al 100% avrò un assorbimento maggiore (e fps molto minori ...).

È lo stesso motivo per cui spesso con l'undervolt non sei stabile in alcuni giochi mentre lo sei con altri a parità di condizioni.

Io con la 3080 avevo dovuto alzare la tensione della mia curva per non crashare in Cyberpunk. La stessa curva che non mi dava problemi su Control e poi su Requiem.

bagnino89
13-02-2023, 14:20
non so il remake di dead space, ma ti dico solo che per un discorso di consumi/PL, requiem mi ha fatto cambiare l'oc della 3080.

Mai visto un gioco (sopratutto nella fase iniziale, poi migliora) che consumasse così tanto

Ma in realtà io avevo consumi tipo Requiem anche in altri giochi, per esempio Days Gone.

Beh ma può essere che un gioco sfrutti la GPU in maniera diversa e quindi abbia un assorbimento maggiore in senso assoluto. Banalmente, se un gioco sfrutta gli rt cores e un altro no, può risultare in un assorbimento maggiore, seppur a parità di "utilizzo" della GPU.

Se gioco a Pacman, utilizzo GPU 100%, farò magari 1000fps, ma sto usando solo una parte della GPU. Se gioco a Cyberpunk, utilizzo tutte le unità, al 100% avrò un assorbimento maggiore (e fps molto minori ...).

È lo stesso motivo per cui spesso con l'undervolt non sei stabile in alcuni giochi mentre lo sei con altri a parità di condizioni.

Io con la 3080 avevo dovuto alzare la tensione della mia curva per non crashare in Cyberpunk. La stessa curva che non mi dava problemi su Control e poi su Requiem.

Sì, forse è come dici tu. Tuttavia, personalmente in giochi come quelli da te citati - Cyberpunk, Control, Requiem, ci inserisco anche Days Gone, Horizon, RDR2 - il consumo della GPU a briglie sciolte è sempre elevato, anche senza RT.

Invece in Dead Space, no.

mikael84
13-02-2023, 15:41
Faccio una domanda sperando di non essere OT.

Chiedo a chi possiede Dead Space remake: anche a voi, con FPS sbloccati, la GPU sta al 100% ma assorbe molta meno potenza del normale?

Mi spiego meglio con un esempio. Su Requiem, scena con GPU al 100%, la scheda assorbe 220 W e rotti. Su Dead Space, sto mediamente sui 180 W (GPU sempre al 100%). Sembra che la GPU non sia usata al meglio. Vi risulta?*

*Oltre all'odioso stuttering, programmato da cani...

Il warp stall. Il giga thread manda i dati ai warp (thread) al lavoro, ma sono per lo più in idle, o mal sfruttati.
Classico dei giochi AMD o ubisoft.
Infatti ho finito FC6 con punte di 230-240 watt, average 180. La maggior parte arriva a 320, o lo supera di poco, o ci va vicino.
Succede lo stesso per i vari AC.

Non vedi che la scheda crolla, perchè la scheda, internamente sta effettivamente lavorando.
Se potessi vedere un task manager, ti potresti stupire. La scheda lavora, gli SM sono sempre impegnati al 80-85%, ma quello che combinano non lo vedi.:)

bagnino89
13-02-2023, 15:48
Il warp stall. Il giga thread manda i dati ai warp (thread) al lavoro, ma sono per lo più in idle, o mal sfruttati.
Classico dei giochi AMD o ubisoft.
Infatti ho finito FC6 con punte di 230-240 watt, average 180. La maggior parte arriva a 320, o lo supera di poco, o ci va vicino.
Succede lo stesso per i vari AC.

Non vedi che la scheda crolla, perchè la scheda, internamente sta effettivamente lavorando.
Se potessi vedere un task manager, ti potresti stupire. La scheda lavora, gli SM sono sempre impegnati al 80-85%, ma quello che combinano non lo vedi.:)

Bella spiegazione, come al solito.

Effettivamente confermo quello che dici: con Valhalla avevo lo stesso problema. GPU però non al 100% in quel caso, un po' meno. Valhalla, quanto meno, girava fluidissimo.

bagnino89
13-02-2023, 16:02
Mikael, visto che ci sono ti chiedo un'altra cosa che comunque credo sia in topic.

Non ho ben compreso il funzionamento di Nvidia Reflex. Mi spiego, prendo come esempio sempre Requiem:

Reflex off: GPU al 100%
Reflex on: GPU ogni tanto scende al 99%
Reflex on + aumento: GPU scende anche al 98%

Non riesco a capire bene i vantaggi di questa tecnologia. Da quanto leggo, dovrebbe diminuire l'input lag. Però ha senso, se poi l'occupazione della GPU scende? Non che - in questo esempio specifico - i FPS cambino drasticamente da una modalità all'altra, però comunque un po' di differenza c'è.

Dono89
13-02-2023, 16:26
Ma in realtà io avevo consumi tipo Requiem anche in altri giochi, per esempio Days Gone.

Anche, days gone era fino ieri il gioco che consumava di più, sia requiem che DG sono decisamente ben più pesanti di metro (nuovo con RT).


possono consumare anche il 50% in più di altri titoli

mikael84
13-02-2023, 18:10
Mikael, visto che ci sono ti chiedo un'altra cosa che comunque credo sia in topic.

Non ho ben compreso il funzionamento di Nvidia Reflex. Mi spiego, prendo come esempio sempre Requiem:

Reflex off: GPU al 100%
Reflex on: GPU ogni tanto scende al 99%
Reflex on + aumento: GPU scende anche al 98%

Non riesco a capire bene i vantaggi di questa tecnologia. Da quanto leggo, dovrebbe diminuire l'input lag. Però ha senso, se poi l'occupazione della GPU scende? Non che - in questo esempio specifico - i FPS cambino drasticamente da una modalità all'altra, però comunque un po' di differenza c'è.

Si reflex serve a quello, infatti viene utilizzato per il DLSS3. Dipende anche dia motori di gioco. Sinceramente non l'ho mai usato, anche la bassa latenza del pannello sempre off.
Appena posso lo provo su requiem.

Nones
13-02-2023, 20:03
Low Latency Mode* Settings:

*This setting is not currently supported in DX12 or Vulkan.

If an in-game or config file FPS limiter is not available, RTSS is prohibited from running, a manual framerate limit is not required, and framerate exceeds refresh rate:
Set “Low Latency Mode” to “Ultra” in the Nvidia Control Panel. When combined with G-SYNC + V-SYNC, this setting will automatically limit the framerate (in supported games) to ~59 FPS @60Hz, ~97 FPS @100Hz, ~116 FPS @120Hz, ~138 FPS @144Hz, ~224 FPS @240Hz, etc.
If an in-game or config file FPS limiter, and/or RTSS FPS limiter is available, or Nvidia’s “Max Frame Rate” limiter is in use, and framerate does not always reach or exceed refresh rate:
Set “Low Latency Mode” to “On.” Unlike “Ultra,” this will not automatically limit the framerate, but like “Ultra,” “On” (in supported games that do not already have an internal pre-rendered frames queue of “1”) will reduce the pre-rendered frames queue in GPU-bound situations where the framerate falls below the set (in-game, RTSS, or Nvidia “Max Frame Rate”) FPS limit.


La modalità bassa lantenza è utile quando si usa gsync + vsync da nvidia control pannel + fps limiter: va attivata quando il framerate non raggiunge o eccede il refresh rate del monitor. Sui giochi DX11 o DX9.

Non vale per i titoli DX12 perchè già il motore hanno di suo una modalità bassa latenza, oppure reflex integrato.

La modalità ultra del pannello nvidia una volta attivato fa in modo che il frames vengano limati di 1 - 2 o 3 a seconda del refresh rate del monitor (dove non si può utilizzare un frame limiter).

Penso che il reflex faccia la stessa cosa se non ho capito male:
sega di 1-3 frame quando la gpu eccede e arriva al 100% e sei sotto il refresh rate del monitor onde evitare input lag.
Ecco perchè forse vedi 98%

For G-SYNC gamers who don’t want to tear, keeping VSYNC ON while using NVIDIA Reflex or NVIDIA Ultra Low Latency Mode, will automatically cap the framerate below the refresh rate, preventing VSYNC backpressure, eliminating tearing, and keeping latency low if you become GPU bound below the refresh rate of your display. Do note, however, that this method will result in slightly higher latency than just letting your FPS run uncapped with NVIDIA Reflex enabled.

https://www.nvidia.com/en-us/geforce/guides/system-latency-optimization-guide/

kean3d
14-02-2023, 14:24
La modalità bassa latenza è il vecchio settaggio "max prerendered frames",
in pratica i frames che vengono caricati prima di essere visualizzati dalla gpu.

Funziona in dx9->dx11, non in dx12 e vulkan.
é deleterio se si è in situazione di cpu bound.
Alcuni giochi ne beneficiano, in altri aumenta notevolmente lo stuttering.
Molti giochi hanno settato già di default "max prerendered frames 0 o 1".

In altri tipo AC Origins, settando modalitò ultra, al contrario scompare lo stuttering, si evitano fps drops a 60, e diminuisce la temp cpu di circa 8-10° (testato).

Unreal engine 3-4 e soprattutto Unity sono molto schizzinosi a questo settaggio,
Unity predilige piu' frames pre caricati in genere per diminuire lo stuttering.

In genere se il game non ha problemi, meglio lasciare default.

Nones
14-02-2023, 15:36
Oppure come Days Gone:

https://youtu.be/g7-82DEjNpA

bagnino89
14-02-2023, 18:00
Interessanti i vostri commenti, grazie.

Da quanto capisco, quindi, la modalità bassa latenza sul pannello driver e Nvidia Reflex sono la stessa cosa, ma quest'ultima feature è disponibile solo per alcuni giochi (tipo Requiem, e quindi anche in DX12)?

Va quindi verificato di caso in caso cosa cambia in termini di frame time per capire se convenga o no. Su Days Gone, effettivamente il frame time migliora molto.

Mi correggo:

NVIDIA Reflex is more effective at reducing latency and operates independently of NVIDIA Ultra low latency mode. If both NVIDIA Reflex and the Ultra Low Latency mode are enabled, NVIDIA Reflex will override Ultra Low Latency functionality.

kean3d
15-02-2023, 15:46
mhmh, quindi Reflex è implementato internamente dal game, come settaggio,
e compatibile con dx12 (?)

mentre Low Latency a livello driver

s12a
17-02-2023, 01:15
Voglio solo riportare che alla fine per la RTX3090 (sempre in attesa, senza fretta, dell'alimentatore da 850W) ho risolto così:

https://i.imgur.com/EoqlZbA.png

Impostando la curva in questo modo si ottiene un undervolt senza modificare la frequenza massima.

Prima ho impostato +225 MHz dalla finestra principale, poi con il Curve Editor ho selezionato tutti i punti oltre la frequenza massima standard (1980 MHz circa) e li ho trascinati verso il basso. Dopo aver chiuso, applicato e riaperto il Curve Editor, i punti si sono tutti allineati alla stessa frequenza. In questo modo la frequenza massima operativa è quella dalla tensione minima, e di fatto si ottiene un undervolt.

In precedenza avevo solo impostato un offset negativo della frequenza (-400 Mhz) ma in questo modo non c'è undervolt, solo frequenze inferiori a tensioni superiori al dovuto (dunque overvolt)... in qualche modo comunque aveva aiutato.

kean3d
17-02-2023, 12:34
Voglio solo riportare che alla fine per la RTX3090 (sempre in attesa, senza fretta, dell'alimentatore da 850W) ho risolto così:

https://i.imgur.com/EoqlZbA.png

Impostando la curva in questo modo si ottiene un undervolt senza modificare la frequenza massima.

Prima ho impostato +225 MHz dalla finestra principale, poi con il Curve Editor ho selezionato tutti i punti oltre la frequenza massima standard (1980 MHz circa) e li ho trascinati verso il basso. Dopo aver chiuso, applicato e riaperto il Curve Editor, i punti si sono tutti allineati alla stessa frequenza. In questo modo la frequenza massima operativa è quella dalla tensione minima, e di fatto si ottiene un undervolt.

In precedenza avevo solo impostato un offset negativo della frequenza (-400 Mhz) ma in questo modo non c'è undervolt, solo frequenze inferiori a tensioni superiori al dovuto (dunque overvolt)... in qualche modo comunque aveva aiutato.

è corretto, in pratica imposti di non superare il tot voltaggio per la tot frequenza.
decidi il punto freq-voltaggio max e poi tutto flat in avanti

greypilgrim85
17-02-2023, 18:15
Sto pensando di fare un upgrade del pc e dopo anni, prendere una GeForce: sono curioso di provare RT e DLSS.

Avendo un 2600X ed un monitor fhd@120hz, pensavo di andare su 3060 o 3060ti.

Come cambiano le prestazioni, quando si attivano questi effetti? Per avere un'idea.

Dono89
17-02-2023, 18:47
Tra 60 e 60ti cambia abbastanza. Vai sulla seconda. Per il fullhd ad alto refresh è perfetta.

Mi preoccupa la cpu più che altro

Ubro92
17-02-2023, 21:08
Con un 2600x in fhd non andrei oltre una 3060/6600xt, GPU più performanti sarebbero molto strozzate e in quel caso conviene valutare anche un ryzen 5600 per bilanciare.

A 1440p già c'è più margine e puoi valutare anche 3060ti e 6700, ci saranno comunque piccole fluttuazioni verso il basso su alcuni engine ma in linea di massima reggerebbe ancora benino



Inviato dal mio M2012K11AG utilizzando Tapatalk

DrossBelly
03-03-2023, 13:22
Buon pomeriggio,
ma una Asus 3060 Dual V2 12gb non TI soffre di cpu limited con un i5 9600 KF giocando a 1080p?
Se si in generale di quanto?
Vi ringrazio

Ubro92
03-03-2023, 16:24
Buon pomeriggio,
ma una Asus 3060 Dual V2 12gb non TI soffre di cpu limited con un i5 9600 KF giocando a 1080p?
Se si in generale di quanto?
Vi ringrazio

Puoi andare tranquillo, potresti notare piccole incertezze dalla 2070s/3060ti in su, ma fino alla 3060 non hai grosse criticità.

kean3d
03-03-2023, 16:44
Buon pomeriggio,
ma una Asus 3060 Dual V2 12gb non TI soffre di cpu limited con un i5 9600 KF giocando a 1080p?
Se si in generale di quanto?
Vi ringrazio

un poco, ma proprio poco sui minimi se usi monitor 144hz,
sui games che riesci a far spingere ad alti fps,
ma non te ne accorgi neanche

comq la 3060 è strana, già con drivers vecchi
in alcuni giochi era in pari alla 2060s
in altri alla 2080

ora è migliorata un tot, soprattutto con le ultime release

DrossBelly
04-03-2023, 06:09
Puoi andare tranquillo, potresti notare piccole incertezze dalla 2070s/3060ti in su, ma fino alla 3060 non hai grosse criticità.

Grazie sia a te che a kean3d :)
Pensavo tra l'altro a un update di cpu più avanti, quindi per un altro annetto posso tirare tranquillamente

kean3d
06-03-2023, 14:09
qualcuno che sta giocando ad AC Origins che
confermi il freeze completo come si va sott'acqua
con gli ultimi 531.18 :doh:

kean3d
06-03-2023, 14:10
Grazie sia a te che a kean3d :)
Pensavo tra l'altro a un update di cpu più avanti, quindi per un altro annetto posso tirare tranquillamente

te la godi tranquillo in fhd ancora per parecchio ;)

monster.fx
09-03-2023, 18:23
Salve a tutti,
qualcuno ha montato una RTX3050 ? Leggo che ha un TDP di 130W , secondo voi senza OC con un 500W riesco a gestirla o devo temere problemi?

kean3d
09-03-2023, 19:21
sé è buono come ali, con un 500w ci reggi anche una 3070
ma proprio tranquillamente,

LurenZ87
10-03-2023, 10:14
Salve ragazzi :) mi servirebbe un consiglio... Vorrei cambiare la mia 5700XT con una 3060 12Gb per via del miglior supporto del DLSS rispetto all'FSR nei giochi (tipo come nel recente Atomic Heart che usa sia il DLSS che l'FSR, ma quest'ultimo solo nella versione 1.0 che blurra tutta l'immagine), che ne dite? Grazie.

StylezZz`
10-03-2023, 12:24
Salve ragazzi :) mi servirebbe un consiglio... Vorrei cambiare la mia 5700XT con una 3060 12Gb per via del miglior supporto del DLSS rispetto all'FSR nei giochi (tipo come nel recente Atomic Heart che usa sia il DLSS che l'FSR, ma quest'ultimo solo nella versione 1.0 che blurra tutta l'immagine), che ne dite? Grazie.

Di solito sconsiglio come la peste la 3060 per il pessimo rapporto prezzo/prestazioni, e poi dovresti puntare ad una scheda superiore (almeno una 3070) se vuoi avere un bel boost prestazionale rispetto la 5700 XT.

Ubro92
10-03-2023, 12:49
Io pure direi minimo una 3060ti per avere una buona esperienza.

Inviato dal mio M2012K11AG utilizzando Tapatalk

kiwivda
10-03-2023, 13:36
Salve ragazzi :) mi servirebbe un consiglio... Vorrei cambiare la mia 5700XT con una 3060 12Gb per via del miglior supporto del DLSS rispetto all'FSR nei giochi (tipo come nel recente Atomic Heart che usa sia il DLSS che l'FSR, ma quest'ultimo solo nella versione 1.0 che blurra tutta l'immagine), che ne dite? Grazie.

Ti consiglio vivamente la 3070 non per altro ma il salto con una 3060 è praticamente nullo, e con la 3060Ti hai mediamente una decina di fps in più, al netto di DLSS, con una 3070 avresti un salto più marcato e ovviamente ancora di più con il DLSS, ma il DLSS è un benvoluto plus non la norma, se poi ti capita un gioco che non lo supporta resti un pò deluso. Se ti interessa io le ho usate sia la 60Ti che la 70.

kean3d
10-03-2023, 13:54
Salve ragazzi :) mi servirebbe un consiglio... Vorrei cambiare la mia 5700XT con una 3060 12Gb per via del miglior supporto del DLSS rispetto all'FSR nei giochi (tipo come nel recente Atomic Heart che usa sia il DLSS che l'FSR, ma quest'ultimo solo nella versione 1.0 che blurra tutta l'immagine), che ne dite? Grazie.

se ci spendi poco fallo, la 3060 in fhd è un ottima scheda
in RT+dlss si mangia la 6700xt

ed è migliorata un sacco coi drivers
+ puoi tirare bene sulle vram ,guadagnando un tot.

Comunque non è un grosso salto da una 5700xt
rt e dlss a parte, anzi.

Conta che ho avuto sia 3060ti e 3060 e ho venduto la TI ,
in fhd la Ti è inutile a confronto, come la 3070
e in 2k 144hz sono inutili ugulalmente, imho.

Oggi come oggi non prenderei mai una scheda con 8gb di vram,
utile o inutile che sia averne di più

Se hai in mente di giocare giochi recenti , fai un salto sulla 3080,
altrimenti se come me hai una sfilza di giochi +/- vecchi da giocare..
3060 è perfetta, consuma pochissimo (soprattutto in uv)
e va a cannone in fhd 144hz/fps

RedPrimula
10-03-2023, 18:19
se ci spendi poco fallo, la 3060 in fhd è un ottima scheda
in RT+dlss si mangia la 6700xt

ed è migliorata un sacco coi drivers
+ puoi tirare bene sulle vram ,guadagnando un tot.

Comunque non è un grosso salto da una 5700xt
rt e dlss a parte, anzi.

Conta che ho avuto sia 3060ti e 3060 e ho venduto la TI ,
in fhd la Ti è inutile a confronto, come la 3070
e in 2k 144hz sono inutili ugulalmente, imho.

Oggi come oggi non prenderei mai una scheda con 8gb di vram,
utile o inutile che sia averne di più

Se hai in mente di giocare giochi recenti , fai un salto sulla 3080,
altrimenti se come me hai una sfilza di giochi +/- vecchi da giocare..
3060 è perfetta, consuma pochissimo (soprattutto in uv)
e va a cannone in fhd 144hz/fps

Quoto parte in grassetto, avendo proprio quella configurazione. E con il dlss guadagni molto (ultima esperienza positiva con Hogwarts Legacy). Quindi fino ai 1440p dettagli medio/alti ci arrivi tranquillamente. E confermo che in uv i consumi sono bassi e hai un discreto margine di oc al contempo.

LurenZ87
10-03-2023, 18:29
Evito di taggare tutti, ma grazie per i consigli :). Ho un monitor da 27" 4k a 144hz (voi direte, che caxxo lo tieni a fare se hai una 5700XT??? :asd:), ma con i titoli un pò "vecchiotti" grazie all'fsr riesco a giocare in 4k a 60fps senza scendere troppo in compromessi, ma valutando un upgrade ho visto che il DLSS funziona meglio della controparte rossa ed è anche più implementato. Vediamo cosa riesco a trovare...

monster.fx
10-03-2023, 18:35
sé è buono come ali, con un 500w ci reggi anche una 3070
ma proprio tranquillamente,

Magari! L'alimentatore è di un preassemblato e non ha connettori PCI express. Sto andando di adattatore.
I dati di targa portano sul +5 80w sul +12 420w e poco altro. Purtroppo son pc già esistenti a cui erano inizialmente stati pensatie delle GTX1650 ma per scarsità si è andati di RTX3050. Non penso che i 130w dichiarati da Nvidia siano di picco e comunque stanno sotto un i5 12th gen.

Per quanto riguarda la "diatriba" RTX3060...Io attualmente ho una gtx1070ti ... E da sempre ho puntato la RTX3070. Gioco in FHD . Non so la serie 60 la vedo "piccola" ...la 80 fuori budget... E quando deciderò andrò di usato... Come sempre.

LurenZ87
11-03-2023, 09:38
Domanda, sapete se l'Accelero monta sulle 3060Ti/3070/3080??? Grazie

Inviato dal mio Pixel 7 utilizzando Tapatalk

kean3d
11-03-2023, 14:25
Magari! L'alimentatore è di un preassemblato e non ha connettori PCI express. Sto andando di adattatore.
I dati di targa portano sul +5 80w sul +12 420w e poco altro. Purtroppo son pc già esistenti a cui erano inizialmente stati pensatie delle GTX1650 ma per scarsità si è andati di RTX3050. Non penso che i 130w dichiarati da Nvidia siano di picco e comunque stanno sotto un i5 12th gen.

Per quanto riguarda la "diatriba" RTX3060...Io attualmente ho una gtx1070ti ... E da sempre ho puntato la RTX3070. Gioco in FHD . Non so la serie 60 la vedo "piccola" ...la 80 fuori budget... E quando deciderò andrò di usato... Come sempre.

mhmh, non dovresti avere troppi problemi mal che vada si riavvia il pc.
130w ,se non fai uv li tocchi facilmente, come tutte le ampere, hanno un tdp def
veramente pensato ad cazzum,
con un po' di undervolt riesci a starci al pelo, a def, se la scheda ha un bios con almeno un +5% extra da settare, bene

Altrimenti un qualsiasi ali abbastanza decente tipo evga bronze,
,economico ma comunque affidabile, e non avrai problemi di sicuro

Ubro92
11-03-2023, 14:39
Magari! L'alimentatore è di un preassemblato e non ha connettori PCI express. Sto andando di adattatore.
I dati di targa portano sul +5 80w sul +12 420w e poco altro. Purtroppo son pc già esistenti a cui erano inizialmente stati pensatie delle GTX1650 ma per scarsità si è andati di RTX3050. Non penso che i 130w dichiarati da Nvidia siano di picco e comunque stanno sotto un i5 12th gen.

Per quanto riguarda la "diatriba" RTX3060...Io attualmente ho una gtx1070ti ... E da sempre ho puntato la RTX3070. Gioco in FHD . Non so la serie 60 la vedo "piccola" ...la 80 fuori budget... E quando deciderò andrò di usato... Come sempre.

La 3060ti si basa sempre su GA104 e lo stacco da 3070 è minimo siamo nell'intorno del 15%, e nel caso della variante GDDR6X della 3060ti anche meno.

Dato che è un chip a fine ciclo non ci investirei troppo, soprattutto considerando che il debutto della 4070 liscia e delle 4060 è abbastanza vicino.

Personalmente a gennaio ho ripiegato sull'usato su una 3060ti a 300€ e per ora si comporta egregiamente, l'unica noia nel mio caso è che il PL è limitato a 200w andando di undervolt oscilla tra 1905-1995mhz a seconda dell'engine o della scena elaborata.

Per la 3060 francamente vale la pena solo se trovi un prezzo estremamente competitivo ma è sempre stata pessima come rapporto prezzo/prestazioni, prestazionalmente sta sotto anche di un 25-30% da 3060ti.

kean3d
11-03-2023, 14:57
la considerazuone finale che feci avendo provato 3060 e 3060ti,
entrambe msi gaming x, con +5% tdp entrambe (180w e 230w la ti)
fu +/- questa:

la 3060 tira meglio sulle vram, andando cosi circa ad avere una bandwidth
della 3060ti def.
ovviamente rops/shaders, rt core minori e fanno comunque la differenza.

Però la 3060ti nei games testati ,settando tutto su ultra @1080p 144hz
andava +/- come la 3060 con un paio di setting scalati (ombre e/o AA).
con RT +dlss attivo c'è un pelo di differenza in più a favore della ti.

entrambe in oc/uv
3060 @2000mhz core e 9000mhz ram
3060ti @1950mhz core e 8500mhz ram

Partendo da questa situazione, la 3060 consuma
comunque 40-50w in meno circa di media,
scalda ovviamente meno, e di conseguenza meno rumore,
entrambe con dissipatore identico, sulla gaming x.

Settando entrambe su ultra si, la Ti stacca la liscia di un 15-30%
dipende dai games

LurenZ87
18-03-2023, 09:07
Salve ragazzi :), mi servirebbe un'informazione... Esiste qualcosa di analogo all'RSR di AMD su queste schede???

Comunque entro bel club grazie a kiwivda (un vero Signore, grazie ancora 😎) con una RTX 3070 Ventus X2. L'efficienza energetica di queste schede è allucinante, con tutto il pp non ottimale, vederla lavorare a 1900Mhz a 0,85w è davvero un piacere.

Inviato dal mio Pixel 7 utilizzando Tapatalk

StylezZz`
18-03-2023, 10:37
Salve ragazzi :), mi servirebbe un'informazione... Esiste qualcosa di analogo all'RSR di AMD su queste schede???

Dynamic Super Resolution (DSR) dal pannello nvidia su ''gestisci le impostazioni 3D'' devi attivare ''DSR - Fattori'' e spuntare ridimensionamento DL sulla risoluzione che preferisci.

Comunque entro bel club grazie a kiwivda (un vero Signore, grazie ancora ��) con una RTX 3070 Ventus X2. L'efficienza energetica di queste schede è allucinante, con tutto il pp non ottimale, vederla lavorare a 1900Mhz a 0,85w è davvero un piacere

Se ti regge questa tensione anche su mattonazzi come A Plague Tale o Metro, è davvero un bel silicio, la mia per esempio a quella frequenza non va sotto 0,925mV giocando a 1440p.

LurenZ87
18-03-2023, 11:05
Dynamic Super Resolution (DSR) dal pannello nvidia su ''gestisci le impostazioni 3D'' devi attivare ''DSR - Fattori'' e spuntare ridimensionamento DL sulla risoluzione che preferisci.

Si avevo visto, ma non ho capito se funziona come l'RSR. In sostanza quello di AMD aumenta in maniera automatica la risoluzione fino a quella del pannello (nel mio caso 4k) da quella impostata nel gioco (esempio se imposto 1080p, scala in automatico in 4k), mentre qui vedo solo i fattori dalla risoluzione nativa del monitor.



Se ti regge questa tensione anche su mattonazzi come A Plague Tale o Metro, è davvero un bel silicio, la mia per esempio a quella frequenza non va sotto 0,925mV giocando a 1440p.

Si esatto, regge a 1900Mhz (precisi sono 1905Mhz) a 0,85v e 1950Mhz (questa volta spaccati) a 0,9v, in entrambe le configurazioni a +1000Mhz sulle vram.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Dono89
18-03-2023, 12:38
900mv e 1950 mhz è davvero tantissima roba

mikael84
18-03-2023, 12:43
edit

LurenZ87
18-03-2023, 13:29
Hai provato cyberpunk con la tua CPU, in RT, dlss quality, nelle zone piene di ncp? La mia non tiene proprio li. 45-55.Posso provare :), l'ho finito sulla X, però una seconda run sul PC la farei molto volentieri, anche per vedere l'RT. Come cpu ho un 5700X con il pbo.

Inviato dal mio Pixel 7 utilizzando Tapatalk

mikael84
18-03-2023, 13:44
Posso provare :), l'ho finito sulla X, però una seconda run sul PC la farei molto volentieri, anche per vedere l'RT. Come cpu ho un 5700X con il pbo.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Come me allora.:)
1440p/RT folle, DLSS quality, è uno spettacolo per gli occhi. Con la 3080@ 1920/0,9v, gira piuttosto bene e solitamente sopra i 60, ma nelle zone molto dense di NCP, la CPU non tiene proprio, mediamente sta sui 50-55 fps, ma scende anche sotto.
https://www.youtube.com/watch?v=PiBVuwBeoQc&t=170s&ab_channel=TestingGames

Notavo cmq, come in cyber, le AMD non siano al top della forma. Ecco che volevo verificare un x3d, però bisogna vedere se in quelle zone, dove entra in ballo principalmente il calcolo se la cavano bene.:)

Si avevo visto, ma non ho capito se funziona come l'RSR. In sostanza quello di AMD aumenta in maniera automatica la risoluzione fino a quella del pannello (nel mio caso 4k) da quella impostata nel gioco (esempio se imposto 1080p, scala in automatico in 4k), mentre qui vedo solo i fattori dalla risoluzione nativa del monitor.





Si esatto, regge a 1900Mhz (precisi sono 1905Mhz) a 0,85v e 1950Mhz (questa volta spaccati) a 0,9v, in entrambe le configurazioni a +1000Mhz sulle vram.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Con nvidia devi selezionarla dal pannello, poi applicarla in game. puoi usare anche il DLDSR, DSR via tensor. :)

LurenZ87
18-03-2023, 14:45
Come me allora.:)
1440p/RT folle, DLSS quality, è uno spettacolo per gli occhi. Con la 3080@ 1920/0,9v, gira piuttosto bene e solitamente sopra i 60, ma nelle zone molto dense di NCP, la CPU non tiene proprio, mediamente sta sui 50-55 fps, ma scende anche sotto.
https://www.youtube.com/watch?v=PiBVuwBeoQc&t=170s&ab_channel=TestingGames Allora sarò decisamente più sotto dei tuoi valori... Devo provare, magari limito qualcosa.

Notavo cmq, come in cyber, le AMD non siano al top della forma. Ecco che volevo verificare un x3d, però bisogna vedere se in quelle zone, dove entra in ballo principalmente il calcolo se la cavano bene.:)
Beh un 5800X3D sarebbe il "canto del cigno" per una piattaforma AM4 basata sul gaming... Prima o poi lo compro e tiro avanti per anni :).


Con nvidia devi selezionarla dal pannello, poi applicarla in game. puoi usare anche il DLDSR, DSR via tensor. :)

Quindi seleziono il fatto di scaling, poi in gioco se scendo di risoluzione (esempio 1440p) la GPU mi scala in risoluzione con il fattore che ho impostato dai driver, partendo però dalla risoluzione che ho scelto sul gioco, giusto??? Ho letto adesso di questo DDT tramite i tensor, gran figata :).

Ho scelto di prendere una Ampere rispetto ad una Navi per via del supporto al DLSS che rispetto all'FSR1 si vede come dalla notte al giorno (già con il 2 la questione si assottiglia/sparisce, ma il supporto è scarso), ma soprattutto lo trovo più supportato dalle software house (mazzette??? Chissenefrega, tanto la vga tocca sempre pagarla). Ho giocato metà Atomic Heart con la 5700XT con tutto su Alto e FSR1, poi il resto con questa con DLSS e tutto al Massimo, la differenza è davvero tanta. Per l'RT bah, rimango scettico ma devo ancora provarlo "con mano".


Inviato dal mio Pixel 7 utilizzando Tapatalk

kiwivda
19-03-2023, 09:29
Come me allora.:)
1440p/RT folle, DLSS quality, è uno spettacolo per gli occhi. Con la 3080@ 1920/0,9v, gira piuttosto bene e solitamente sopra i 60, ma nelle zone molto dense di NCP, la CPU non tiene proprio, mediamente sta sui 50-55 fps, ma scende anche sotto.
https://www.youtube.com/watch?v=PiBVuwBeoQc&t=170s&ab_channel=TestingGames

Notavo cmq, come in cyber, le AMD non siano al top della forma. Ecco che volevo verificare un x3d, però bisogna vedere se in quelle zone, dove entra in ballo principalmente il calcolo se la cavano bene.:)



Con nvidia devi selezionarla dal pannello, poi applicarla in game. puoi usare anche il DLDSR, DSR via tensor. :)

Allora sarò decisamente più sotto dei tuoi valori... Devo provare, magari limito qualcosa.


Beh un 5800X3D sarebbe il "canto del cigno" per una piattaforma AM4 basata sul gaming... Prima o poi lo compro e tiro avanti per anni :).




Quindi seleziono il fatto di scaling, poi in gioco se scendo di risoluzione (esempio 1440p) la GPU mi scala in risoluzione con il fattore che ho impostato dai driver, partendo però dalla risoluzione che ho scelto sul gioco, giusto??? Ho letto adesso di questo DDT tramite i tensor, gran figata :).

Ho scelto di prendere una Ampere rispetto ad una Navi per via del supporto al DLSS che rispetto all'FSR1 si vede come dalla notte al giorno (già con il 2 la questione si assottiglia/sparisce, ma il supporto è scarso), ma soprattutto lo trovo più supportato dalle software house (mazzette??? Chissenefrega, tanto la vga tocca sempre pagarla). Ho giocato metà Atomic Heart con la 5700XT con tutto su Alto e FSR1, poi il resto con questa con DLSS e tutto al Massimo, la differenza è davvero tanta. Per l'RT bah, rimango scettico ma devo ancora provarlo "con mano".


Inviato dal mio Pixel 7 utilizzando Tapatalk

Baldi giovini buon giorno, contento che LurenZ87 sia felice, quella scheda è un mostro di efficenza, in OC non sarà un razzo ma in downvolt va alla grande con i suoi 220W di PL. Ma c'è anche da dire che la scheda ha subito il trattamento "Kiwi's special K" con repad completo con Gelid GP-Ultimate, pasta PK-03 sul die e pad al posteriore che vanno a contatto con il backplate di alluminio e lo sfruttano a dovere, praticamente è un lingottino rovente a tutto tondo quando in esercizio e sfrutta ogni millimetro quadrato di dissipazione attivamente.

In CP 2077 la shceda regge, abbiamo/ho testato a fondo, molto a fondo quella scheda e 0,85 per 1900Mhz li regge alla grande, al massimo si potrà ridurre un pelo l'oc sulle memorie se qualcosa dovesse essere ballerino.

Tuttavia le zone dense di di NPC in CP2077 sono un vero pugno nello stomaco per le cpu non di primo pelo anche io, sebbene in altri termini, mi ritrovo con la scheda che scende anche all'80% di utilizzo in luoghi come Kabuki ed il centro di Waston, mio video di ieri a tal proposito (https://youtu.be/zsxG5Fp3T7U) (non ho ancora completato la prima missione quindi sono ancora con l'isolamento :D ), ma come vado verso la periferia tutto torna la 98 100%, questo gioco è un vero benchmark per certi versi.

In merito alle risoluzioni DSR di invidia aiuta, ci sono 3 vocine dal pannello anni 80 dei driver, queste

https://i.imgur.com/mnEPJ55l.png

selezioni quelle con scritto ridimensionamento DL ed ottieni delle risoluzioni upscalate usando i tensor e l'AI, poi in gioco selezioni una di quelle e gli applichi il DLSS. certo puppa più risorse che un DLSS applicato alla risoluzione nativa ma il risultato visivo è impressionante come anti aliasing e pulizia.

Abbiamo poi anche questa funzione il NIS

https://i.imgur.com/pgX9mtzl.png

Ma io non la uso, tuttavia è possibile attivare manualmente Nvidia Image Scaling e modificarne la risoluzione dal pannello di controllo Nvidia, o abilitarla in automatico anche da GeForce Experience. Per farlo, bisognerà cliccare su “Impostazioni 3D” dopo aver aperto il pannello di controllo, attivando in seguito l’opzione “Image Scaling” e avviando infine il gioco ad una risoluzione inferiore a quella utilizzata dal monitor. È anche possibile abilitare un indicatore overlay che mostrerà il logo “NIS” nell’angolo in alto a sinistra della schermata.

Un indicatore verde segnalerà che Nvidia Image Scaling è correttamente in funzione, mentre il colore blu indicherà che la tecnologia è in fase di ottimizzazione prima di poter effettuare lo scaling delle immagini.

Ah che nostalgia tornare su questo thread, un salutone a tutti.

mikael84
21-03-2023, 01:05
Allora sarò decisamente più sotto dei tuoi valori... Devo provare, magari limito qualcosa.

E si in RT c'è tanta differenza tra le 2.
Per il RT con almeno un DLSS, ci vuole una 3080.
In 4k solo le Lovelace con il DLSS3.:)
https://www.hwupgrade.it/articoli/6448/cb2077_rt.png


Beh un 5800X3D sarebbe il "canto del cigno" per una piattaforma AM4 basata sul gaming... Prima o poi lo compro e tiro avanti per anni :).

Verissimo, gran bella CPU, però il problema è che nessuno ha fatto un puro confronto in ambienti densi di NCP, dove il calcolo e IPC viene prima di tutto. Ed è proprio li che serve la CPU, soprattutto sui giochi RT.:)




Quindi seleziono il fatto di scaling, poi in gioco se scendo di risoluzione (esempio 1440p) la GPU mi scala in risoluzione con il fattore che ho impostato dai driver, partendo però dalla risoluzione che ho scelto sul gioco, giusto??? Ho letto adesso di questo DDT tramite i tensor, gran figata :).

Ho scelto di prendere una Ampere rispetto ad una Navi per via del supporto al DLSS che rispetto all'FSR1 si vede come dalla notte al giorno (già con il 2 la questione si assottiglia/sparisce, ma il supporto è scarso), ma soprattutto lo trovo più supportato dalle software house (mazzette??? Chissenefrega, tanto la vga tocca sempre pagarla). Ho giocato metà Atomic Heart con la 5700XT con tutto su Alto e FSR1, poi il resto con questa con DLSS e tutto al Massimo, la differenza è davvero tanta. Per l'RT bah, rimango scettico ma devo ancora provarlo "con mano".


Inviato dal mio Pixel 7 utilizzando Tapatalk

Esatto, il DLSS, a parer mio è meglio, anche per una questione di denoising, oltre che più supportato. Inoltre tu hai una 3070 ed è più complesso, oltre che pesante, ma dove supportato il DLAA è qualcosa di inarrivabile

Per il DLDSR, segui quanto detto da Kiwi, ma generalmente c'è ben poco da perdersi in quel pannello anni 90.:p

mtofa
21-03-2023, 08:40
Io con la 3070ti in 2K e il DLDSR ho un problema con Assetto Corsa Competizione, in pratica seguendo anche quanto consigliato su guide specifiche ho impostato a 2.25x il DLDSR e la risoluzione nel pannello opzioni di ACC a 2160 anzichè la nativa 1440 del monitor, con DLSS attivato. Ebbene quando torno indetro dopo essere entrato in una sezione secondaria (tipo setup dell'auto ad esempio), la risoluzione va fuori scala uscendo dallo schermo.

Finora me lo ha fatto soltanto con ACC, con altri giochi no. Per poter usare bene ACC ho dovuto impostare la risoluzione nativa 2560x1440.

LurenZ87
21-03-2023, 08:49
Beh, era abbastanza scontato il divario tra le due schede, anche perché parliamo di due gpu diverse, per quanto l'architettura di base sia la stessa :). Poi ecco, tu hai una Founders, che a qualità costruttiva la considero il top per tanti motivi (uno di questi le dimensioni contenute e l'aria calda che proviene dalla gpu esplusa fuori dal case), mentre io ho uno delle peggiori versioni per dissipazione, però ecco l'ho pagata la metà della tua, quindi mi accontento più che volentieri 🤭.

Certo Cyberpunk mi sembra un caso limite, ma la cosa che mi ha fatto più stupore è vedere una vga da 1200€ che letteralmente muore con l'RT attivo... Bah.

Comunque poi la versione verde del RSR era il NIS, peccato che in Borderlands 3 non funzioni bene come la controparte rossa, infatti si limita solo ad aumentare lo sharpening senza però upscalare la risoluzione (infatti la scritta rimane blu invece di verde). Peccato, non che la scheda non ce la faccia a farlo girare in 4k su dettagli Alti, ma ecco, consumare e scaldare meno è sempre un must per i miei gusti.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Ubro92
22-03-2023, 08:17
Rilasciato l'aggiornamento alla 3.1.11 del DLSS:

https://www.techpowerup.com/download/nvidia-dlss-dll/#changes-3-1-11

Dono89
23-03-2023, 18:58
Domanda banale.
Non ci saranno versioni aggiornate della 2.x e quindi anche chi ha le 3000 deve utilizzare le DLL 3.x?

kean3d
23-03-2023, 19:39
Domanda banale.
Non ci saranno versioni aggiornate della 2.x e quindi anche chi ha le 3000 deve utilizzare le DLL 3.x?

quelle sono Dlss 2
cioè versione 3.x.x del dlss 2
han fatto un casino con le numerazioni 😅

Ubro92
25-03-2023, 12:38
quelle sono Dlss 2
cioè versione 3.x.x del dlss 2
han fatto un casino con le numerazioni ��

Si infatti è abbastanza ambigua come cosa, comunque è sempre dlss2, da vedere se si potrà utilizzare il DLSS2 + il frame generator di amd con l'FSR3 :sofico:

monster.fx
25-03-2023, 14:52
mhmh, non dovresti avere troppi problemi mal che vada si riavvia il pc.
130w ,se non fai uv li tocchi facilmente, come tutte le ampere, hanno un tdp def
veramente pensato ad cazzum,
con un po' di undervolt riesci a starci al pelo, a def, se la scheda ha un bios con almeno un +5% extra da settare, bene

Altrimenti un qualsiasi ali abbastanza decente tipo evga bronze,
,economico ma comunque affidabile, e non avrai problemi di sicuro

Alla fine l'ho montata su questo fantomatico alimentatore . Provato con Superposition ha retto tranquillamente. Non verrà usata per rendering pesanti , ne gaming ... in caso di problemi dovrò necessariamente variare l'alimentatore.

Vedremo.

kean3d
25-03-2023, 19:23
Si infatti è abbastanza ambigua come cosa, comunque è sempre dlss2, da vedere se si potrà utilizzare il DLSS2 + il frame generator di amd con l'FSR3 :sofico:

sinceramente ad ora fsr mi pare ancora troppo inferiore a dlss,
blurra tantissimo, cosa di primaria importanza per i miei gusti.

DLSS 2 ha fatto passi da gigante sia in termini di performance che
di blurring (ormai praticamente assente)

kean3d
25-03-2023, 19:24
Alla fine l'ho montata su questo fantomatico alimentatore . Provato con Superposition ha retto tranquillamente. Non verrà usata per rendering pesanti , ne gaming ... in caso di problemi dovrò necessariamente variare l'alimentatore.

Vedremo.

👍

davide155
26-03-2023, 15:38
Qualcuno che ha riavvii improvvisi appena si prova a lanciare Callisto?
La 3090 funziona perfettamente con altri giochi, ma con callisto appena arriva al menù il pc si riavvia. Mai successo.
A qualcun altro è successo?

s12a
26-03-2023, 15:46
Quando avevo ancora un alimentatore insufficientemente adeguato, la mia 3090 faceva spegnere/resettare l'alimentatore solo in determinati giochi/benchmark o a determinate impostazioni grafiche.

850W dovrebbero bastare ma magari è il modello specifico di alimentatore che non ce la fa in certi transienti. Prova a cercarlo qui:
https://docs.google.com/spreadsheets/d/1eL0893Ramlwk6E3s3uSvH1_juom7SMG5SCNzP2Uov8w/edit#gid=1529225916

Il test migliore sarebbe controllare se lo stesso accade downcloccando correttamente la GPU.

davide155
26-03-2023, 15:52
Quando avevo ancora un alimentatore insufficientemente adeguato, la mia 3090 faceva spegnere/resettare l'alimentatore solo in determinati giochi/benchmark o a determinate impostazioni grafiche.

850W dovrebbero bastare ma magari è il modello specifico di alimentatore che non ce la fa in certi transienti. Prova a cercarlo qui:
https://docs.google.com/spreadsheets/d/1eL0893Ramlwk6E3s3uSvH1_juom7SMG5SCNzP2Uov8w/edit#gid=1529225916

Il test migliore sarebbe controllare se lo stesso accade downcloccando correttamente la GPU.
Ti ringrazio ma temo proprio sia una questione di driver. Sul forum nvidia ne leggo di ogni, tra crash e riavvii in svariati giochi. L'alimentatore non ha mai fatto uno scherzo, e questa scheda ce l'ho da un anno e mezzo. Massimo consumo di corrente alla presa durante i giochi è 620w.
Ora sto rimettendo i precedenti e vediamo.

davide155
26-03-2023, 16:53
Risolto l'arcano.
Dopo svariate prove ho constatato che il problema derivasse dall'oc delle ddr4.
Riportate a valori xmp, tutto risolto.

Ryo Hazuki
26-03-2023, 19:09
Baldi giovini buon giorno, contento che LurenZ87 sia felice, quella scheda è un mostro di efficenza, in OC non sarà un razzo ma in downvolt va alla grande con i suoi 220W di PL. Ma c'è anche da dire che la scheda ha subito il trattamento "Kiwi's special K" con repad completo con Gelid GP-Ultimate, pasta PK-03 sul die e pad al posteriore che vanno a contatto con il backplate di alluminio e lo sfruttano a dovere, praticamente è un lingottino rovente a tutto tondo quando in esercizio e sfrutta ogni millimetro quadrato di dissipazione attivamente.

In CP 2077 la shceda regge, abbiamo/ho testato a fondo, molto a fondo quella scheda e 0,85 per 1900Mhz li regge alla grande, al massimo si potrà ridurre un pelo l'oc sulle memorie se qualcosa dovesse essere ballerino.

Tuttavia le zone dense di di NPC in CP2077 sono un vero pugno nello stomaco per le cpu non di primo pelo anche io, sebbene in altri termini, mi ritrovo con la scheda che scende anche all'80% di utilizzo in luoghi come Kabuki ed il centro di Waston, mio video di ieri a tal proposito (https://youtu.be/zsxG5Fp3T7U) (non ho ancora completato la prima missione quindi sono ancora con l'isolamento :D ), ma come vado verso la periferia tutto torna la 98 100%, questo gioco è un vero benchmark per certi versi.

In merito alle risoluzioni DSR di invidia aiuta, ci sono 3 vocine dal pannello anni 80 dei driver, queste

https://i.imgur.com/mnEPJ55l.png

selezioni quelle con scritto ridimensionamento DL ed ottieni delle risoluzioni upscalate usando i tensor e l'AI, poi in gioco selezioni una di quelle e gli applichi il DLSS. certo puppa più risorse che un DLSS applicato alla risoluzione nativa ma il risultato visivo è impressionante come anti aliasing e pulizia.

Abbiamo poi anche questa funzione il NIS

https://i.imgur.com/pgX9mtzl.png

Ma io non la uso, tuttavia è possibile attivare manualmente Nvidia Image Scaling e modificarne la risoluzione dal pannello di controllo Nvidia, o abilitarla in automatico anche da GeForce Experience. Per farlo, bisognerà cliccare su “Impostazioni 3D” dopo aver aperto il pannello di controllo, attivando in seguito l’opzione “Image Scaling” e avviando infine il gioco ad una risoluzione inferiore a quella utilizzata dal monitor. È anche possibile abilitare un indicatore overlay che mostrerà il logo “NIS” nell’angolo in alto a sinistra della schermata.

Un indicatore verde segnalerà che Nvidia Image Scaling è correttamente in funzione, mentre il colore blu indicherà che la tecnologia è in fase di ottimizzazione prima di poter effettuare lo scaling delle immagini.

Ah che nostalgia tornare su questo thread, un salutone a tutti.

Ho provato il dsr ma non lo trovo all'altezza delle risoluzioni personalizzate

Ryo Hazuki
26-03-2023, 19:44
queste le risoluzioni che vi consiglio di creare in base al formato del vostro monitor. per esempio io nel mio 21.9 gioco a 5160x2160 75hz

32:9 aspect ratio: 3840×1080, 5120×1440, 7680×2160
21:9 aspect ratio: 2560×1080, 3440×1440, 3840×1600, 5120×2160
16:9 aspect ratio: 1280×720, 1366×768, 1600×900, 1920×1080, 2560×1440, 3840×2160, 5120×2880, 7680×4320
16:10 aspect ratio: 1280×800, 1920×1200, 2560×1600
4:3 aspect ratio: 1400×1050, 1440×1080, 1600×1200, 1920×1440, 2048×1536

ultimate trip
29-03-2023, 07:24
Ti ringrazio ma temo proprio sia una questione di driver. Sul forum nvidia ne leggo di ogni, tra crash e riavvii in svariati giochi. L'alimentatore non ha mai fatto uno scherzo, e questa scheda ce l'ho da un anno e mezzo. Massimo consumo di corrente alla presa durante i giochi è 620w.
Ora sto rimettendo i precedenti e vediamo.

anche se hai scoperto che non erano i driver a me con quelli nuovi il g-sync non va, rimesso i vecchi e tutto a posto. peccato.... perchè per the last of us i nuovi sarebbero stati meglio

davide155
29-03-2023, 07:54
Ho provato il dsr ma non lo trovo all'altezza delle risoluzioni personalizzateHai provato il dsr o l'ldsr? Son due cose ben diverse.
E comunque non capisco cosa c'entra la risoluzione personalizzata perdonami. Il dsr non nasce per personalizzare le risoluzioni.anche se hai scoperto che non erano i driver a me con quelli nuovi il g-sync non va, rimesso i vecchi e tutto a posto. peccato.... perchè per the last of us i nuovi sarebbero stati meglioIo ho rimesso quelli nuovi ed il gsync funziona alla perfezione. Ho un pannello gsync nativo però. Non di quelli compatibile.
Occhio che con tlou potrebbe essere il gioco ad avere qualche magagna di gioventù. Hai controllato di essere a schermo intero?

fraussantin
29-03-2023, 07:55
anche se hai scoperto che non erano i driver a me con quelli nuovi il g-sync non va, rimesso i vecchi e tutto a posto. peccato.... perchè per the last of us i nuovi sarebbero stati meglioA me con i penultimi driver mi sono comparsi a schermo sul client gamepass quadratini verdi e marroni ovunque , mi sono cagato sotto , ma erano solo sul client e non in gioco .

Poi riavviato e non li ho più visti .

Devo aggiornare agli ultimi ancora.

Ubro92
29-03-2023, 07:58
A me con i penultimi driver mi sono comparsi a schermo sul client gamepass quadratini verdi e marroni ovunque , mi sono cagato sotto , ma erano solo sul client e non in gioco .

Poi riavviato e non li ho più visti .

Devo aggiornare agli ultimi ancora.Anche a me, io ho dato una pulita con ddu e sono spariti.

Penso sia un bug, se era la vram in teoria i quadratini dovremmo vederlo anche nel BIOS.

Inviato dal mio M2012K11AG utilizzando Tapatalk

ultimate trip
29-03-2023, 08:06
Io ho rimesso quelli nuovi ed il gsync funziona alla perfezione. Ho un pannello gsync nativo però. Non di quelli compatibile.
Occhio che con tlou potrebbe essere il gioco ad avere qualche magagna di gioventù. Hai controllato di essere a schermo intero?

no perchè con i nuovi il gsync non mi va anche con altri giochi mentre ora che ho messo i vecchi mi va anche con the last of us....vai a sapere, ho pannello compatible

davide155
29-03-2023, 09:54
no perchè con i nuovi il gsync non mi va anche con altri giochi mentre ora che ho messo i vecchi mi va anche con the last of us....vai a sapere, ho pannello compatible

Ci sta che ci sia qualche magagna tra i driver nuovi ed il tuo pannello.
Purtroppo i pannelli compatibili lo sono grazie ai driver.
Quelli col modulo hardware come il mio invece lavorano in maniera diversa.

mtofa
29-03-2023, 12:34
Ci sta che ci sia qualche magagna tra i driver nuovi ed il tuo pannello.
Purtroppo i pannelli compatibili lo sono grazie ai driver.
Quelli col modulo hardware come il mio invece lavorano in maniera diversa.

Anch'io ho il PG279Q, ero tentato di prendere l'LG 27GP850 in offerta che è nanoIPS ma solo compatibile gsync ma mi sa non ne vale la pena, a meno di passare al 21:9.

Ubro92
29-03-2023, 12:53
Anch'io ho il PG279Q, ero tentato di prendere l'LG 27GP850 in offerta che è nanoIPS ma solo compatibile gsync ma mi sa non ne vale la pena, a meno di passare al 21:9.

Si, o cambi formato e passi al 21:9 oppure se fai il cambio lo fai per un pannello tecnologicamente migliore, quindi sicuramente con una retroilluminazione che non sia quello schifo di Edge che da anni propinano.

Sberla101
29-03-2023, 15:16
un po' ot, ma visto che siamo in tema, possedendo un alienware con GSync ultimate, quali differenze ci sono tra i vari gsync ed un freesync. Se dovessi cambiare monitor, potrei avere le stesse qualità del gsync ultimate con un freesync, sempre avendo una 3080?

davide155
29-03-2023, 15:35
Anch'io ho il PG279Q, ero tentato di prendere l'LG 27GP850 in offerta che è nanoIPS ma solo compatibile gsync ma mi sa non ne vale la pena, a meno di passare al 21:9.

Si, o cambi formato e passi al 21:9 oppure se fai il cambio lo fai per un pannello tecnologicamente migliore, quindi sicuramente con una retroilluminazione che non sia quello schifo di Edge che da anni propinano.

A me fa estremamente gola il nuovo LG 27'' GR95QE OLED QHD 240Hz gsync

https://i.ibb.co/7Gr0VWL/Senza-titolo.jpg (https://imgbb.com/)

Pannello con stessa tecnologia del tv fratello maggiore C2.
Io da quando ho acquistato una oled tv lg non riesco più a guardare gli lcd :mc:

Però vogliono mille euri mortacci loro :cry:

bagnino89
29-03-2023, 15:46
A me fa estremamente gola il nuovo LG 27'' GR95QE OLED QHD 240Hz gsync

Purtroppo sono pannelli che non vanno ancora bene per un uso a 360° del PC, es. i pixel usati non sono adatti per la visualizzazione dei caratteri.

davide155
29-03-2023, 16:00
Purtroppo sono pannelli che non vanno ancora bene per un uso a 360° del PC, es. i pixel usati non sono adatti per la visualizzazione dei caratteri.Si ho visto qualche video di test ma si parla di piccolezze. Che poi si può relativamente aggirare con alcune impostazioni dei caratteri di windows.
Per il resto quel monitor fa paura.

devil_mcry
29-03-2023, 16:11
Purtroppo sono pannelli che non vanno ancora bene per un uso a 360° del PC, es. i pixel usati non sono adatti per la visualizzazione dei caratteri.

anche un pannello VA in teoria non sarebbe adatto ma sti cazzi non si nota su roba 4k

bagnino89
29-03-2023, 16:30
Si ho visto qualche video di test ma si parla di piccolezze. Che poi si può relativamente aggirare con alcune impostazioni dei caratteri di windows.
Per il resto quel monitor fa paura.Anche il burn in non è mai da sottovalutare, purtroppo.

Inviato dal mio Pixel 6 utilizzando Tapatalk

davide155
29-03-2023, 16:44
Anche il burn in non è mai da sottovalutare, purtroppo.

Inviato dal mio Pixel 6 utilizzando TapatalkLg con gli ultimi pannelli ha fatto un lavoro impressionante per il burn in.
Svariati test indicano come siano praticamente esenti da burnin anche dopo diversi anni.

kiwivda
29-03-2023, 18:15
Ho provato il dsr ma non lo trovo all'altezza delle risoluzioni personalizzate

prova a settare il refresh dello schermo non oltre i 120Hz

A me fa estremamente gola il nuovo LG 27'' GR95QE OLED QHD 240Hz gsync

https://i.ibb.co/7Gr0VWL/Senza-titolo.jpg (https://imgbb.com/)

Pannello con stessa tecnologia del tv fratello maggiore C2.
Io da quando ho acquistato una oled tv lg non riesco più a guardare gli lcd :mc:

Però vogliono mille euri mortacci loro :cry:

:D Ma quello è il meno, il problema sono i 1440p, l'avessero almeno fatto 4k.

sertopica
29-03-2023, 21:50
prova a settare il refresh dello schermo non oltre i 120Hz



:D Ma quello è il meno, il problema sono i 1440p, l'avessero almeno fatto 4k.

Beh c'e' anche la versione curva 3440x1440 a soli 1800 euro. :D

Preferisco comunque sempre avere un pannello primario a risoluzione moderata che un 4k, che e' purtroppo ancora una risoluzione molto esosa e che richiede cambi HW piu' frequenti.

davide155
29-03-2023, 22:01
Beh c'e' anche la versione curva 3440x1440 a soli 1800 euro. :D



Preferisco comunque sempre avere un pannello primario a risoluzione moderata che un 4k, che e' purtroppo ancora una risoluzione molto esosa e che richiede cambi HW piu' frequenti.Si che poi c'è pur sempre il dldsr :sofico:

Ubro92
29-03-2023, 22:03
un po' ot, ma visto che siamo in tema, possedendo un alienware con GSync ultimate, quali differenze ci sono tra i vari gsync ed un freesync. Se dovessi cambiare monitor, potrei avere le stesse qualità del gsync ultimate con un freesync, sempre avendo una 3080?

Devi guardare le review dei monitor che ti interessano, poichè mentre il gsync è uno standard chiuso che richiede un elettronica a parte, il gsync compatibile come il freesync si appoggiano all' adaptive-Sync e la qualità di questo varia da pannello a pannello.
Con pannelli di fascia alta francamente è veramente arduo se non impossibile notare differenze tra i due standard.

Purtroppo qui siamo ot, non trattandosi di una questione specifica per le GPU quindi eventualmente parlane nella sezione monitor dove di sicuro trovi anche persone più esperte.

sertopica
30-03-2023, 06:45
Si che poi c'è pur sempre il dldsr :sofico:

Esatto, anche. :D

Matz
30-03-2023, 07:58
A me fa estremamente gola il nuovo LG 27'' GR95QE OLED QHD 240Hz gsync

...

Pannello con stessa tecnologia del tv fratello maggiore C2.
Io da quando ho acquistato una oled tv lg non riesco più a guardare gli lcd :mc:

Però vogliono mille euri mortacci loro :cry:

eh... anch'io sono super "inscimmiato" per gli OLED 27" 1440p (dimensioni/distanza/PPI perfetti per gaming da scrivani a mio gusto personale), sto puntando il ROG ma costano veramente uno sproposito ;_;/

BTW...

chi di voi ha preso TLOU Pc???

Onestamente, su entrambi i PC Desktop (RTX4080/1440p) e Laptop (RTX3080/1080p) in firma, tutti sti problemi che in teoria hanno scaturito queste polemiche ASSURDE non gli ho visti O_o?

Preload degli shaders a parte, che effettivamente impiegano abbastanza (ma lo fai una volta e stop), il gioco mi gira una BELLEZZA in entrambi i PC... tecnicamente e artisticamente è veramente STUPENDO.

Felice di riviverlo dopo 10 anni dalla versione Ps3 e dopo aver visto la serie HBO ;)

Boh... sono l'unico??? ;_;/

mtofa
30-03-2023, 08:16
Si, o cambi formato e passi al 21:9 oppure se fai il cambio lo fai per un pannello tecnologicamente migliore, quindi sicuramente con una retroilluminazione che non sia quello schifo di Edge che da anni propinano.

A me fa estremamente gola il nuovo LG 27'' GR95QE OLED QHD 240Hz gsync

https://i.ibb.co/7Gr0VWL/Senza-titolo.jpg (https://imgbb.com/)

Pannello con stessa tecnologia del tv fratello maggiore C2.
Io da quando ho acquistato una oled tv lg non riesco più a guardare gli lcd :mc:

Però vogliono mille euri mortacci loro :cry:

Eh anch'io passerei volentieri all'oled, ho il 65" oled in salotto con la vecchia xbox one, mentre il PC con l'Asus PG279Q in altra stanza dove non ho spazio purtroppo.. Usando il PC non solo per gaming ma anche per altro, non so se sia il caso di sostituire l'IPS con l'oled come unico display, considerata anche la spesa non indifferente.

frafelix
30-03-2023, 08:21
eh... anch'io sono super "inscimmiato" per gli OLED 27" 1440p (dimensioni/distanza/PPI perfetti per gaming da scrivani a mio gusto personale), sto puntando il ROG ma costano veramente uno sproposito ;_;/

BTW...

chi di voi ha preso TLOU Pc???

Onestamente, su entrambi i PC Desktop (RTX4080/1440p) e Laptop (RTX3080/1080p) in firma, tutti sti problemi che in teoria hanno scaturito queste polemiche ASSURDE non gli ho visti O_o?

Preload degli shaders a parte, che effettivamente impiegano abbastanza (ma lo fai una volta e stop), il gioco mi gira una BELLEZZA in entrambi i PC... tecnicamente e artisticamente è veramente STUPENDO.

Felice di riviverlo dopo 10 anni dalla versione Ps3 e dopo aver visto la serie HBO ;)

Boh... sono l'unico??? ;_;/

Io, provato ieri sera, una tristezza infinita... Per gli shaders ci ha messo circa 30 minuti, poi appena iniziato e sono sceso dalla scala in casa con la bambina primo crash. Riaperto e sono arrivato a cecare manuel (o come si chiama) e mentre torno indietro altro crash. Rallentamenti impressionanti in un paio di punti anche al chiuso...
Non ho gli ultimi driver, ma non penso dipenda da questo

Matz
30-03-2023, 08:28
Io, provato ieri sera, una tristezza infinita... Per gli shaders ci ha messo circa 30 minuti, poi appena iniziato e sono sceso dalla scala in casa con la bambina primo crash. Riaperto e sono arrivato a cecare manuel (o come si chiama) e mentre torno indietro altro crash. Rallentamenti impressionanti in un paio di punti anche al chiuso...
Non ho gli ultimi driver, ma non penso dipenda da questo

boh... giuro che in entrambi i PC non mi è successo nulla di tutto ciò :cry:

vabbè che ho giocato poco più di 4 ore... però :confused:

sertopica
30-03-2023, 09:43
Io, provato ieri sera, una tristezza infinita... Per gli shaders ci ha messo circa 30 minuti, poi appena iniziato e sono sceso dalla scala in casa con la bambina primo crash. Riaperto e sono arrivato a cecare manuel (o come si chiama) e mentre torno indietro altro crash. Rallentamenti impressionanti in un paio di punti anche al chiuso...
Non ho gli ultimi driver, ma non penso dipenda da questo

Ma hai messo tutto a stecca? A che res? Controlla il consumo della VRAM.

ultimate trip
30-03-2023, 09:43
....

Onestamente, su entrambi i PC Desktop (RTX4080/1440p) e Laptop (RTX3080/1080p) in firma, tutti sti problemi che in teoria hanno scaturito queste polemiche ASSURDE non gli ho visti O_o?

Preload degli shaders a parte, che effettivamente impiegano abbastanza (ma lo fai una volta e stop), il gioco mi gira una BELLEZZA in entrambi i PC... tecnicamente e artisticamente è veramente STUPENDO.

Felice di riviverlo dopo 10 anni dalla versione Ps3 e dopo aver visto la serie HBO ;)

Boh... sono l'unico??? ;_;/

Io, provato ieri sera, una tristezza infinita... Per gli shaders ci ha messo circa 30 minuti, poi appena iniziato e sono sceso dalla scala in casa con la bambina primo crash. Riaperto e sono arrivato a cecare manuel (o come si chiama) e mentre torno indietro altro crash. Rallentamenti impressionanti in un paio di punti anche al chiuso...
Non ho gli ultimi driver, ma non penso dipenda da questo

a me non funzionava il gsync con gli ultimi driver ma messo i vecchi e va. anche io zero crash, leggevo che è molto cpu intensive (ma più per mancata ottimizzazione) e infatti l'aio fa abbastanza casino, magari alcuni crash son dovuti anche a quello. per il resto la vga si comporta bene, a 4k con settaggi max (non ultra) e dlss qualità giro intorno ai 60 ed è molto godibile

frafelix
30-03-2023, 09:51
Stasera provo un po' meglio (non avevo manco inserito il layer di rivaturner)... Comunque a parte la scheda video che potrebbe fare un po' fatica nel 4k per il resto direi che non ci dovrebbero essere problemi in quanto a potenza!

ultimate trip
30-03-2023, 09:54
....

:D Ma quello è il meno, il problema sono i 1440p, l'avessero almeno fatto 4k.

diciamo un prima serie dove si cominci aa vendere la novità, mi pare cmq che tra 1 o 2 trimestri dovremmo vedere i 32 a 4k della stessa linea che credo più interessanti
https://tech.everyeye.it/notizie/lg-prepara-produrre-display-oled-27-32-pollici-primi-monitor-arrivo-2023-611587.html

ultimate trip
30-03-2023, 09:56
Stasera provo un po' meglio (non avevo manco inserito il layer di rivaturner)... Comunque a parte la scheda video che potrebbe fare un po' fatica nel 4k per il resto direi che non ci dovrebbero essere problemi in quanto a potenza!

con la tua build sicuramente no

davide155
30-03-2023, 10:19
Io, provato ieri sera, una tristezza infinita... Per gli shaders ci ha messo circa 30 minuti, poi appena iniziato e sono sceso dalla scala in casa con la bambina primo crash. Riaperto e sono arrivato a cecare manuel (o come si chiama) e mentre torno indietro altro crash. Rallentamenti impressionanti in un paio di punti anche al chiuso...

Non ho gli ultimi driver, ma non penso dipenda da questoOhhhhh allora non sono il solo.
Ho scritto pure nel thread di ada ma sono stato cacato zero.
Forse perché non ho scritto 4090 nella firma :sofico:
Comunque è da ieri che sto bestemmiando. Ho crash random frequentissimi. All'inizio del gioco credevo fosse l'overclock di gpu e cpu che questo gioco mette seriamente a dura prova, ma quando ho visto che crasha in continuazione anche con tutto a default allora c'è qualcosa che non va nel gioco.
Ultima spiaggia sto rimettendo i vecchi driver ma leggendo anche qua vedo che non serve a nulla. È proprio il gioco buggato.
Anche il micro stuttering del mouse mi fa imbestialire. Col joypad va liscio come l'olio, col mouse no.
Peccato perché il gioco, in 4k dldsr e dlss è una piccola opera d'arte.
Mi metto l'anima in pace allora ed aspetto un'altra patch.

sertopica
30-03-2023, 10:41
Cosa vedete nel registro eventi dopo il crash?

davide155
30-03-2023, 10:48
Cosa vedete nel registro eventi dopo il crash?Error occurred on gpuid:100
Origine: nvlddmkm

Driver Scheda video

bagnino89
30-03-2023, 11:21
Error occurred on gpuid:100
Origine: nvlddmkm

Driver Scheda video

Sicuro che la GPU sia a default?

sertopica
30-03-2023, 11:27
Error occurred on gpuid:100
Origine: nvlddmkm

Driver Scheda video

Prova con la serie di driver video 52x. I 53x causano problemi a molti.

Comunque e' anche il gioco stesso ad utlizzare male le risorse per un qualche utilizzo incorretto di queste ultime.

Bisogna davvero smettere di preordinare o comprare in maniera compulsiva al day one...

frafelix
30-03-2023, 12:17
Prova con la serie di driver video 52x. I 53x causano problemi a molti.

Comunque e' anche il gioco stesso ad utlizzare male le risorse per un qualche utilizzo incorretto di queste ultime.

Bisogna davvero smettere di preordinare o comprare in maniera compulsiva al day one...

Concordo! E' il solito porting fatto male, anche perché ai tempi di crisys non è che i pc andavano sempre in crash per farlo girare... Magari andava lento, ma andava!
Bisogna aspettare qualche patch come al solito e sperare che anche a livello gameplay non sia fatto male come il porting di Uncharted

davide155
30-03-2023, 13:10
Ok sembra che ho trovato la soluzione.
Letta sul forum steam dove diversi hanno sto problema di crash random.
In pratica è il dlss che fa crashare il gioco.

Mettendo l'ultima versione dll del dlss presa su techpowerup si risolve.
Io l'ho messa e sono andato avanti un'oretta senza più crash. E soprattutto ho superato quella zona dove mi crashava appena si avviava la partita....

frafelix
30-03-2023, 13:12
Grazie, stasera si prova!

davide155
30-03-2023, 13:13
Nulla come non detto.....è crashato di nuovo appena adesso :doh:

Non rimane che aspettare una patch.....le ho provate tutte.

ultimate trip
30-03-2023, 13:26
Nulla come non detto.....è crashato di nuovo appena adesso :doh:

Non rimane che aspettare una patch.....le ho provate tutte.

tra l'altro sei pure a liquido per cui problemi di surriscaldamento non ne hai. che noia

Cutter90
30-03-2023, 13:30
Nulla come non detto.....è crashato di nuovo appena adesso :doh:

Non rimane che aspettare una patch.....le ho provate tutte.

Prova a cavare gli oc da cpu e ram

davide155
30-03-2023, 13:56
Prova a cavare gli oc da cpu e ramL'ho detto che le ho provate di tutte....compreso togliere tutti gli oc, piallare il bios, ram a jedec, togliere qualsiasi overlay, disattivare msi ab, tornare ad un vecchio driver.
Nulla. Ha sempre crashato.
Sui forum stranieri danno la colpa al dlss. Ora provo senza dlss. Altrimenti se crasha pure così è il gioco che ha bisogno di ingenti patch correttive

davide155
30-03-2023, 14:26
Ok con dlss completamente disattivato sembra non crashare......bisogna vedere nel tempo.
Edit: ha crasciato anche senza dlss attivo. Mi arrendo ed aspetto la patch

sertopica
30-03-2023, 18:10
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/514764/geforce-grd-53141-feedback-thread-released-32323/

Open Issues:

Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]
Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
[Halo Wars 2] In-game foliage is larger than normal and displays constant flickering [3888343]
[GeForce RTX 4090] Watch Dogs 2 may display flickering when staring at the sky [3858016]
Increase in DPC latency observed in Latencymon [3952556]
Applying GeForce Experience Freestyle filters cause games to crash [4008945]
Assassin’s Creed Origins stability issues using 531.18 [4008770]
Event Viewer logs nvlddmkm error at the end of the OCCT video ram test when memory is full [4049182]
[The Last of Us Part 1] Game may randomly crash during gameplay on GeForce RTX 30 series GPUs [4031676]

nVidia ha riconosciuto che si tratta di un problema con la serie 3xxx. Quello che posso consigliare e' lasciar perdere i GRD della serie 53x.

bagnino89
30-03-2023, 18:26
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/514764/geforce-grd-53141-feedback-thread-released-32323/



nVidia ha riconosciuto che si tratta di un problema con la serie 3xxx. Quello che posso consigliare e' lasciar perdere i GRD della serie 53x.Ottimo, speriamo in un hot fix a breve.

Inviato dal mio Pixel 6 utilizzando Tapatalk

kean3d
30-03-2023, 18:40
mah, sono 3 releases che c'è il problema con AC Origins,
che sto giocando e freeza completamente, tornato ai 528.49

e dpc latency increase, ormai da tot release

oh nVidia, che stai a fa'?!

RedPrimula
30-03-2023, 18:47
mah, sono 3 releases che c'è il problema con AC Origins,
che sto giocando e freeza completamente, tornato ai 528.49

e dpc latency increase, ormai da tot release

oh nVidia, che stai a fa'?!

Beh nvidia consiglia di passare alla 4090 :D :read:

sertopica
30-03-2023, 19:06
Beh nvidia consiglia di passare alla 4090 :D :read:

Mah, se vi consola oggi ho giocato un po' piu' a lungo a Hogwarts Legacy e mi e' crashato nvlddmkm.sys (device disconnected o giu' di li'). :D

Insomma mi sa che faccio un rollback pure io.

kean3d
30-03-2023, 19:07
Beh nvidia consiglia di passare alla 4090 :D :read:

se me la regalano .. volentieri 😂
sarebbe inutile per me ma va bene

Ubro92
30-03-2023, 21:05
Io sto usando i driver vulkan per ora non mi è crashato ancora nulla ma non ho ancora provato the last of us, anche perchè dovrei comprarlo e preferisco attendere il solito ciclo di patch.

mikael84
30-03-2023, 21:19
Io sto usando i driver vulkan per ora non mi è crashato ancora nulla ma non ho ancora provato the last of us, anche perchè dovrei comprarlo e preferisco attendere il solito ciclo di patch.

A me con la 3080, va che è una bellezza, nessun problema per ora. Avrò fatto 2 ore. Si mangia tutta la vram, ma non da alcun problema. Ovviamente, driver 527.4. Vecchiotti, ma non gli cambio spesso.

frafelix
31-03-2023, 08:09
Non mi ricordo la versione dei driver, ma con l'ultima patch ieri ho giocato per 3 ore e mezza senza nemmeno un crash o un rallentamento! Dettagli su ultra e dlss su quality, gpu sempre al 99-100% cpu intorno al 20-25% vram poco meno di 10,5gb e fps tra i 55 e i 75. Se levo il dlss e lascio 4k pieno mi sfora sulla ram (almeno lui dice).
Tra l'altro visto che lo avevo disinstallato e reinstallato, a calcolare gli shaders ci ha messo circa 15 minuti invece la prima volta ce ne aveva messi 45

Sniper88
31-03-2023, 08:47
Non mi ricordo la versione dei driver, ma con l'ultima patch ieri ho giocato per 3 ore e mezza senza nemmeno un crash o un rallentamento! Dettagli su ultra e dlss su quality, gpu sempre al 99-100% cpu intorno al 20-25% vram poco meno di 10,5gb e fps tra i 55 e i 75. Se levo il dlss e lascio 4k pieno mi sfora sulla ram (almeno lui dice).
Tra l'altro visto che lo avevo disinstallato e reinstallato, a calcolare gli shaders ci ha messo circa 15 minuti invece la prima volta ce ne aveva messi 45

Analisi dettagliata. Fortunatamente si sta sistemando! Aspetto ancora un po' e poi lo giocherò (ho aspettato tanto, una settimana più o in meno non mi cambia molto :p )

demonangel
02-04-2023, 21:26
Installato the last of US.
Un disastro... Crash continui... anche mettendo l'hardware tutto liscio.
Sarà il problema identificato da Nvidia sulle 3080

StylezZz`
02-04-2023, 21:51
Installato the last of US.
Un disastro... Crash continui... anche mettendo l'hardware tutto liscio.
Sarà il problema identificato da Nvidia sulle 3080

Si purtroppo il gioco attualmente è rotto, e oltre questo gli ultimi driver nvidia danno problemi con le 3000.

mikael84
02-04-2023, 22:06
Installato the last of US.
Un disastro... Crash continui... anche mettendo l'hardware tutto liscio.
Sarà il problema identificato da Nvidia sulle 3080

Nel mio caso nessun problema, fluidissimo sempre e nessuna incertezza. Vram totalmente allocata, ma nessun problema di stuttering o altro.
A tanti crasha anche con le lovelace. Dipende dai vari sistemi.
1440p ovviamente e DLSS quality. Alcune zone molto CPU limit, e CPU con PBO che sembra eseguire un cinebench.:D

demonangel
03-04-2023, 06:20
Nel mio caso nessun problema, fluidissimo sempre e nessuna incertezza. Vram totalmente allocata, ma nessun problema di stuttering o altro.
A tanti crasha anche con le lovelace. Dipende dai vari sistemi.
1440p ovviamente e DLSS quality. Alcune zone molto CPU limit, e CPU con PBO che sembra eseguire un cinebench.:D

È positivo... c'è speranza... anche se abbiamo entrambi la 3080...a me Crash e a te no. Quindi esiste qualcosa che gli dà noia. Pure a me tutto liscio come l'olio... unico problema si blocca random nonostante lo tenga liscio. Ho visto che hai driver antichi... chissà se può risolvere utilizzare gli stessi.... proverò.

xyzfra
03-04-2023, 09:27
Mah, se vi consola oggi ho giocato un po' piu' a lungo a Hogwarts Legacy e mi e' crashato nvlddmkm.sys (device disconnected o giu' di li'). :D

Insomma mi sa che faccio un rollback pure io.

Questo pero' succede anche con le 4000

sertopica
03-04-2023, 10:23
Questo pero' succede anche con le 4000

Eh infatti ho una 4090.

Ieri ho rigiocato per molto piu' di un'ora e non e' successo niente comunque. Comincio a pensare che sia anche colpa di Win11 e dei suoi updates. Dopo l'ultimo aggiornamento cumulativo non ha crashato.

mikael84
03-04-2023, 11:50
È positivo... c'è speranza... anche se abbiamo entrambi la 3080...a me Crash e a te no. Quindi esiste qualcosa che gli dà noia. Pure a me tutto liscio come l'olio... unico problema si blocca random nonostante lo tenga liscio. Ho visto che hai driver antichi... chissà se può risolvere utilizzare gli stessi.... proverò.

Alcuni hanno provato, hanno migliorato non poco, ma i crash continuano.

Io cmq ho w10, non w11:)

Eh infatti ho una 4090.

Ieri ho rigiocato per molto piu' di un'ora e non e' successo niente comunque. Comincio a pensare che sia anche colpa di Win11 e dei suoi updates. Dopo l'ultimo aggiornamento cumulativo non ha crashato.

Io infatti ho w10.:)

StylezZz`
03-04-2023, 13:27
Eh infatti ho una 4090.

Ieri ho rigiocato per molto piu' di un'ora e non e' successo niente comunque. Comincio a pensare che sia anche colpa di Win11 e dei suoi updates. Dopo l'ultimo aggiornamento cumulativo non ha crashato.

Ma ti riferisci all'update cumulativo opzionale? Io di solito aspetto sempre quelli mensili, ma se risolve i crash lo installo.

sertopica
03-04-2023, 13:58
Io infatti ho w10.:)
E mi sa proprio che fai bene. :D
Ma ti riferisci all'update cumulativo opzionale? Io di solito aspetto sempre quelli mensili, ma se risolve i crash lo installo.
Mi riferisco al KB5023778. Il precedente aveva causato vari problemi sopratutto nella velocita' dei SSD, oltre ad altre amenita'.

Comunque potrebbe tranquillamente essere soltanto un caso che non e' andato in crash. E' del tutto random...

StylezZz`
03-04-2023, 14:52
Mi riferisco al KB5023778. Il precedente aveva causato vari problemi sopratutto nella velocita' dei SSD, oltre ad altre amenita'.

Comunque potrebbe tranquillamente essere soltanto un caso che non e' andato in crash. E' del tutto random...

Si è lui, l'ho appena installato ma purtroppo nel mio caso non risolve i crash.

mikael84
03-04-2023, 14:56
E mi sa proprio che fai bene. :D


Non avendo un'ibrido per il thread director, mi tengo questo ampiamente stabile, poi per il dr vedremmo.:)


Mi riferisco al KB5023778. Il precedente aveva causato vari problemi sopratutto nella velocita' dei SSD, oltre ad altre amenita'.

Comunque potrebbe tranquillamente essere soltanto un caso che non e' andato in crash. E' del tutto random...

Finalmente qualcuno che lo scrive bene. E' un pò come l'RT e non il RT:sofico:

monster.fx
05-04-2023, 11:11
Buongiorno a tutti . non so se ricordate qualche settimana fa chiedevo se un 500 watt per una rtx 3050 poteva essere sufficiente o meno con un i5 di decima o undicesima generazione. Oggi mi sono trovato stessa configurazione, stesso alimentatore ma con i 7 e i test i superposition non mi hanno rilevato nessun problema nessun possibile difetto o riavvio improvviso o altro.
Guardando su Internet diversi siti riportavano ,impostando un po' la configurazione, che con 500 watt ci stavo ampiamente dentro . al che ho voluto fare un ulteriore prova, installato un gioco Star wars Battlefront 2 e dopo 8 minuti di gioco l'alimentatore ha fatto Puf!!!

Com'è possibile che il test sintetico( provato tante volte a diverse configurazioni e risoluzioni proprio per stressare la scheda video) Al massimo non abbia prodotto problemi mentre un gioco si? Possibile che mentre il test sintetico da sopra solo sulla scheda grafica il gioco vado a stressare il processore e quindi richiede più risorse energetiche?

Cutter90
05-04-2023, 11:22
Buongiorno a tutti . non so se ricordate qualche settimana fa chiedevo se un 500 watt per una rtx 3050 poteva essere sufficiente o meno con un i5 di decima o undicesima generazione. Oggi mi sono trovato stessa configurazione, stesso alimentatore ma con i 7 e i test i superposition non mi hanno rilevato nessun problema nessun possibile difetto o riavvio improvviso o altro.
Guardando su Internet diversi siti riportavano ,impostando un po' la configurazione, che con 500 watt ci stavo ampiamente dentro . al che ho voluto fare un ulteriore prova, installato un gioco Star wars Battlefront 2 e dopo 8 minuti di gioco l'alimentatore ha fatto Puf!!!

Com'è possibile che il test sintetico( provato tante volte a diverse configurazioni e risoluzioni proprio per stressare la scheda video) Al massimo non abbia prodotto problemi mentre un gioco si? Possibile che mentre il test sintetico da sopra solo sulla scheda grafica il gioco vado a stressare il processore e quindi richiede più risorse energetiche?
Intanto ti devi assicurare di effettuare un test che tiri la cpu e la gpu al massimo, cosa che superposition non fa assolutamente. Lui tira solo la gpu, mentre la cpu zero o quasi.
Del testo quali sono i consumi che vedi con riva tuner di gpu e cpu massimi?
La 3050 quanto fa di watt massimi? Ho letto che siamo intorno ai 150 watt massimi, quindi assieme alla cpu i711700k ci dovresti stare ampiamente dentro. Quindi sei hai problemi la mia conclusione è che non sia un problema di alimenatatore ma di altro

monster.fx
05-04-2023, 11:32
Intanto ti devi assicurare di effettuare un test che tiri la cpu e la gpu al massimo, cosa che superposition non fa assolutamente. Lui tira solo la gpu, mentre la cpu zero o quasi.
Del testo quali sono i consumi che vedi con riva tuner di gpu e cpu massimi?
La 3050 quanto fa di watt massimi? Ho letto che siamo intorno ai 150 watt massimi, quindi assieme alla cpu i711700k ci dovresti stare ampiamente dentro. Quindi sei hai problemi la mia conclusione è che non sia un problema di alimenatatore ma di altro

Guarda l'unica cosa che è saltata è proprio l'alimentatore con tanto di sfiammata. Parliamo sempre del solito alimentatore che non aveva una linea Pci Express e quindi l'ho dovuta ad arrivare attraversa sdoppiatori perché anche la quantità di linee SATA era molto limitata.

Ora ho preso un 650 con linea fissa Express dedicata e tante porte usata non è certificato 80 plus però sicuramente è meglio di quello che c'è.

Cutter90
05-04-2023, 11:37
Guarda l'unica cosa che è saltata è proprio l'alimentatore con tanto di sfiammata. Parliamo sempre del solito alimentatore che non aveva una linea Pci Express e quindi l'ho dovuta ad arrivare attraversa sdoppiatori perché anche la quantità di linee SATA era molto limitata.

Ora ho preso un 650 con linea fissa Express dedicata e tante porte usata non è certificato 80 plus però sicuramente è meglio di quello che c'è.

Ma che razza di alimentatore era scusa?
Ma poi ora hai preso un 650 NON 80plus ne silver, ne bronze, ne gold? Che modello è?

frafelix
05-04-2023, 13:35
A parte tutto e che siamo ot, comunque con un 500 watt eri al limite se l'alimentatore fosse stato buono, altrimenti è normale quello che è successo (a parte la fiammata). Con la mia configurazione in firma ogni tanto ci sono dei micro picchi di consumo molto più alto sia sulla cpu che sulla gpu...

monster.fx
05-04-2023, 14:15
Ma che razza di alimentatore era scusa?
Ma poi ora hai preso un 650 NON 80plus ne silver, ne bronze, ne gold? Che modello è?

L'alimentatore di marca fetecchia di un barebone , minuscolo, da 500w(dicono). Ora gli ho messo un Itek(fetecchia anch'esso) da 650w , ma almeno ha 4 sata,Pci Express dedicato ,... E non è scoppiato. Il TDP della VGA sta oltre i 130w e la CPU(non k) oltre i 70w .

Cutter90
05-04-2023, 14:28
A parte tutto e che siamo ot, comunque con un 500 watt eri al limite se l'alimentatore fosse stato buono, altrimenti è normale quello che è successo (a parte la fiammata). Con la mia configurazione in firma ogni tanto ci sono dei micro picchi di consumo molto più alto sia sulla cpu che sulla gpu...

Non penso proprio fosse al limite. Cpu e gpu insieme consumeranno 300 watt a stare molto molto larghi....

s12a
05-04-2023, 15:05
Attenzione che il consumo medio non è rappresentativo dei picchi di corrente che CPU e soprattutto GPU possono richiedere per brevi istanti.

Qualsiasi alimentatore serio dovrebbe avere protezioni in tal senso e semplicemente spegnersi senza danni in caso di sovraccarico, ma magari avere usato i connettori SATA al posto di quelli dedicati PCI Express può averle aggirate.

frafelix
05-04-2023, 15:58
Era quello che intendevo dire io... Col mio ci sto dentro nei consumi sulla mia configurazione, ma i picchi possono tranquillamente raggiungere la potenza dell'alimentatore

demonangel
08-04-2023, 16:13
Ho il contatore alla presa di corrente dell'alimentatore. Mentre gioco a the last of US... succhia 600w reali..e la GPU sta' in undervolt. Un po' di margine serve per eventuali picchi.

caccapupu91
10-04-2023, 00:38
Ragassuoli ho cambiato i pad finalmente, prima versione della scheda 3060Ti TUF che monta 1.5mm e 2.5mm

extreme odyssey da 85x45 ne è avanzata poco per ogni misura (utile per provare se è il primo repad). Sono abbastanza squishy, finchè sono pochi watt possono anche andare bene imho

Precisione chirurgica con bisturi e non toccateli che implodono :asd:

Pasta termica MX-4 applicata con spatolina

gpuz prima dopo https://imgur.com/a/shU1C1A

ColdWarGuy
10-04-2023, 10:08
Ragassuoli ho cambiato i pad finalmente, prima versione della scheda 3060Ti TUF che monta 1.5mm e 2.5mm

extreme odyssey da 85x45 ne è avanzata poco per ogni misura (utile per provare se è il primo repad). Sono abbastanza squishy, finchè sono pochi watt possono anche andare bene imho

Precisione chirurgica con bisturi e non toccateli che implodono :asd:

Pasta termica MX-4 applicata con spatolina

gpuz prima dopo https://imgur.com/a/shU1C1A

Temperature altine prima dell'intervento, ma com'era messa la pasta originale ... ?

caccapupu91
10-04-2023, 22:24
@ColdWarGuy

Stucco con pad di marmo :asd:

ColdWarGuy
10-04-2023, 22:33
@ColdWarGuy

Stucco con pad di marmo :asd:

Azz... da un Asus mi sarei aspettato di più :mad:

Buono a sapersi.

caccapupu91
11-04-2023, 01:14
@ColdWarGuy

Erano tempi in cui vendevano qualsiasi cosa a qualsiasi prezzo, maledetti ._.

Sicuramente sui modelli Strix c'è più controllo, la TUF come scheda è ottima anche lato pcb. Magari hanno avuto uno shortage di thermal pad e pasta termica nell'era del mining e c'hanno messo monnezza.. oppure no? D:

Avevo aperto il ticket per mandarla in RMA nel terzo anno di vita è via produttore e mi hanno chiesto di spedirla semplicemente in un pacco con pluriball e loro non sono responsabili di eventuali danni :asd:

Ubro92
11-04-2023, 10:43
Ma probabilmente oltre alla bassa qualità dei pad e pasta termica penso che forse anche l'assemblaggio aveva qualche problema forse non era ben fissata e quindi anche il contatto non era ottimale.

Poichè avevi temperature notevolmente peggiori della mia 3060ti che è una dual fan e con un dissi molto più compatto.

caccapupu91
12-04-2023, 00:17
@Ubro92

Letteralmente raffreddata ad aria :asd:

Essendoci altre Rev della mia scheda oltre il modello gddr6x sospetto anche io un qualche errore di assemblaggio iniziale, ne abbiamo viste tante in questi anni D:!

ColdWarGuy
12-04-2023, 10:12
@Ubro92

Letteralmente raffreddata ad aria :asd:

Essendoci altre Rev della mia scheda oltre il modello gddr6x sospetto anche io un qualche errore di assemblaggio iniziale, ne abbiamo viste tante in questi anni D:!

Quando si paga un plus per un certo marchio ci si aspetta un livello di qualità esecutiva superiore alla media, nel tuo caso hanno fallito miseramente.

Ubro92
12-04-2023, 13:26
Quando si paga un plus per un certo marchio ci si aspetta un livello di qualità esecutiva superiore alla media, nel tuo caso hanno fallito miseramente.Mai quanto alcune Evga con difetti nelle saldature.

Durante la pendemia e con la produzione a pieno regime il controllo qualità é completamente crollato a picco.

Inviato dal mio M2012K11AG utilizzando Tapatalk

devil_mcry
17-04-2023, 10:22
ma 1850mhz a 0.9v per una 3080 12gb è buono?

Ubro92
17-04-2023, 10:33
ma 1850mhz a 0.9v per una 3080 12gb è buono?Di solito con quella tensione almeno 1.9ghz dovresti prenderli, però dipende sempre dal silicio.

Inviato dal mio M2012K11AG utilizzando Tapatalk

devil_mcry
17-04-2023, 10:34
Di solito con quella tensione almeno 1.9ghz dovresti prenderli, però dipende sempre dal silicio.

Inviato dal mio M2012K11AG utilizzando Tapatalk

va benissimo se sono grasso di tensione era giusto per capire se non era troppo ecco

wulff73
17-04-2023, 10:38
ma 1850mhz a 0.9v per una 3080 12gb è buono?

Con la 3090 ho tenuto per più di 2 anni 1860mhz@0,85V giocando a tutti i tipi di giochi. Di sicuro era comunque stabile con quella tensione per un uso continuativo fino a 1875mhz.

devil_mcry
17-04-2023, 10:46
Con la 3090 ho tenuto per più di 2 anni 1860mhz@0,85V giocando a tutti i tipi di giochi. Di sicuro era comunque stabile con quella tensione per un uso continuativo fino a 1875mhz.

C'è da dire che non ho fatto una curva ma ho visto come esce con +90 e rimane abbastanza controllata, tanto il tdp taglia

Ho visto che c'era margine così ho alzato un pochetto ma non voglio stare li a fare test su test

Ubro92
17-04-2023, 10:56
Il problema di queste GPU é il pl, persino la 3060ti con un muro a massimo 200w scende in alcuni engine a 0.875v e 1875mhz.

In altri come Assassin's Creed sta a 1995mhz@950mv, alcune volte prende i 2040mhz ma sono quasi un miraggio.

Conviene farsi una curva anche con gli stadi superiori giusto per quei titoli che stressano meno la GPU.

Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
17-04-2023, 11:25
ma 1850mhz a 0.9v per una 3080 12gb è buono?

I parametri medi sono 1900x0,9v. Io ho fatto ogni genere di esperimento, ed ho trovato 1920x 0,9v stabile su tutto.
Prova a mettere inizialmente 1900 x 0,9v, se non tiene metti 0,918, non step intermedi.
Le 12 spesso sono pure più binnate, ultime rese, ma qua dipende da silicio, wafer etc.

Purtroppo non si può leggere più l'Asic, altrimenti, era facile indirizzare le persone.

StylezZz`
17-04-2023, 11:31
Ma perchè non si può più leggere? Se non sbaglio con AMD è ancora possibile.

mikael84
17-04-2023, 11:58
Ma perchè non si può più leggere? Se non sbaglio con AMD è ancora possibile.

Da pascal in poi l'hanno levato. Forse a partire dalla grande molle di resi in cerca dell'asic migliore. Su maxwell-kepler in base all'asic avevi quasi 2 schede diverse.
Su AMD l'hanno rimesso, però i risultati sono poco indicativi. Insomma non dicono nulla.

devil_mcry
17-04-2023, 13:07
I parametri medi sono 1900x0,9v. Io ho fatto ogni genere di esperimento, ed ho trovato 1920x 0,9v stabile su tutto.
Prova a mettere inizialmente 1900 x 0,9v, se non tiene metti 0,918, non step intermedi.
Le 12 spesso sono pure più binnate, ultime rese, ma qua dipende da silicio, wafer etc.

Purtroppo non si può leggere più l'Asic, altrimenti, era facile indirizzare le persone.

Se alzo così tanto devo farmi un profilo completo non ho tanta voglia, cmq sono 50mhz in meno prestazionalmente siamo li, vorrei tenere la tensione molto grassa così vado sereno a giocare

ho visto che al superposition 4k ottimizzato fa quasi 15.7k, non penso sia male

ho provato inoltre un gioco "leggero", fallout 76, me la fa girare a 2100mhz 1.065v mi pare, sembra tutto ok, di più non penso possa andare per il PL

pareri?

mikael84
17-04-2023, 13:29
Se alzo così tanto devo farmi un profilo completo non ho tanta voglia, cmq sono 50mhz in meno prestazionalmente siamo li, vorrei tenere la tensione molto grassa così vado sereno a giocare

ho visto che al superposition 4k ottimizzato fa quasi 15.7k, non penso sia male



Si, in percentuale, cambia realmente pochissimo, era giusto per ottimizzare il silicio.
Cmq lascia perdere il superposition 4k opt, usa il 1080p extreme più pesante.:)

devil_mcry
17-04-2023, 13:39
Si, in percentuale, cambia realmente pochissimo, era giusto per ottimizzare il silicio.
Cmq lascia perdere il superposition 4k opt, usa il 1080p extreme più pesante.:)

eh di quello non ho riferimenti, ma se non ci fosse il power limit di mezzo a 1.1v questo silicio quanto potrebbe raggiungere?

mikael84
17-04-2023, 14:52
eh di quello non ho riferimenti, ma se non ci fosse il power limit di mezzo a 1.1v questo silicio quanto potrebbe raggiungere?

Questo è un grosso "dipende". Anche liquido e aria incidono. A liquido hanno raggiunto anche i 2,2 per soli bench,
Ad aria sui 2ghz ci si potrebbe stare in base al silicio.

LurenZ87
17-04-2023, 15:02
Domanda domanda, ma usando la vga in DLSS Quality in 4k (che se non sbaglio è upscaler da 1440p), in sostanza la vga sta lavorando come il 1440p nativo o sbaglio (parlando di carico di lavoro sulla gpu)? Grazie.

Inviato dal mio Pixel 7 utilizzando Tapatalk

bagnino89
17-04-2023, 15:04
Domanda domanda, ma usando la vga in DLSS Quality in 4k (che se non sbaglio è upscaler da 1440p), in sostanza la vga sta lavorando come il 1440p nativo o sbaglio (parlando di carico di lavoro sulla gpu)? Grazie.

Inviato dal mio Pixel 7 utilizzando TapatalkPraticamente sì.

Inviato dal mio Pixel 6 utilizzando Tapatalk

devil_mcry
17-04-2023, 15:04
Questo è un grosso "dipende". Anche liquido e aria incidono. A liquido hanno raggiunto anche i 2,2 per soli bench,
Ad aria sui 2ghz ci si potrebbe stare in base al silicio.

Ma dici in carichi pesante? Perché nelle review di techpower up le davano oltre 2ghz i boost di picco, poi medio sui 2020...

devil_mcry
17-04-2023, 15:05
Domanda domanda, ma usando la vga in DLSS Quality in 4k (che se non sbaglio è upscaler da 1440p), in sostanza la vga sta lavorando come il 1440p nativo o sbaglio (parlando di carico di lavoro sulla gpu)? Grazie.

Inviato dal mio Pixel 7 utilizzando Tapatalk


si per questo secondo me dire "gioco in 4k la cpu pompata non mi serve" lascia il tempo che trova col dlss

mikael84
17-04-2023, 15:17
Ma dici in carichi pesante? Perché nelle review di techpower up le davano oltre 2ghz i boost di picco, poi medio sui 2020...

Dipende molto dal modello, raffreddamento utilizzato, chip bin. In linea di massima i 2ghz si possono superare, ma se dovessimo fare una media, penso che 2ghz sia già un buon parametro di OC ad aria.
Quando parlo di 2ghz, intendo anche mantenuti, escludendo appunto il PL.

Alcune 3080 salgono solo di 30-45mhz oltre lo stock.:)

LurenZ87
17-04-2023, 15:26
Praticamente sì.

Inviato dal mio Pixel 6 utilizzando TapatalkPerfetto, grazie :)si per questo secondo me dire "gioco in 4k la cpu pompata non mi serve" lascia il tempo che trova col dlssAssolutamente, più che altro stavo facendo delle considerazioni personali sugli scenari attuali. Tolto l'FSR 1 che si vede una chiavica, con il DLSS e l'FSR2 andare a vedere le prestazioni in 4K reali sono "senza senso", ossia, a meno che uno non voglia tenersi una determinata scheda per svariati anni o non abbia particolari problemi economici (beato lui :D), può anche "ripiegare" su schede non mega ultra top di gamma e giocare come si deve. Poi con il Frame Generator del DLSS3 e eventualmente l'FSR3 (che però a tutt'oggi è una chimera come le RX 7800) si va una pacchia.

Inviato dal mio Pixel 7 utilizzando Tapatalk

devil_mcry
17-04-2023, 16:40
Dipende molto dal modello, raffreddamento utilizzato, chip bin. In linea di massima i 2ghz si possono superare, ma se dovessimo fare una media, penso che 2ghz sia già un buon parametro di OC ad aria.
Quando parlo di 2ghz, intendo anche mantenuti, escludendo appunto il PL.

Alcune 3080 salgono solo di 30-45mhz oltre lo stock.:)

era solo per curiosità, tanto la mia non è un modello da OC essendo 2x8

non so nemmeno se 1900 a 0.9v sta nel PL per dire che poi ad esempio se guardo i numeri gia a +90mhz sta salendo meno del previsto nel senso con +40 è passato da 14.8k a 15.44, con altri +50 15.67

quindi stava già tagliando il turbo di più rispetto a +40, la differenza reale se va bene sarà stata di due step

mikael84
17-04-2023, 18:07
era solo per curiosità, tanto la mia non è un modello da OC essendo 2x8

non so nemmeno se 1900 a 0.9v sta nel PL per dire che poi ad esempio se guardo i numeri gia a +90mhz sta salendo meno del previsto nel senso con +40 è passato da 14.8k a 15.44, con altri +50 15.67

quindi stava già tagliando il turbo di più rispetto a +40, la differenza reale se va bene sarà stata di due step

Dovrebbe starci. La mia è solidissima a 1920@0,9v.

Cmq se hai giochi come AC: valhalla, FC6, puoi provare a tirarla a vcore stock e 2ghz, visto che stanno ben sotto il PL.
Anche TLOU mi stava ben sotto.

kiwivda
17-04-2023, 18:55
era solo per curiosità, tanto la mia non è un modello da OC essendo 2x8

non so nemmeno se 1900 a 0.9v sta nel PL per dire che poi ad esempio se guardo i numeri gia a +90mhz sta salendo meno del previsto nel senso con +40 è passato da 14.8k a 15.44, con altri +50 15.67

quindi stava già tagliando il turbo di più rispetto a +40, la differenza reale se va bene sarà stata di due step

http://i.imgur.com/maoYXzZl.png (https://imgur.com/maoYXzZ)

io la tenevo così daily. COn curva piatta da AB, se serve come riferimento.

devil_mcry
17-04-2023, 19:48
Dovrebbe starci. La mia è solidissima a 1920@0,9v.

Cmq se hai giochi come AC: valhalla, FC6, puoi provare a tirarla a vcore stock e 2ghz, visto che stanno ben sotto il PL.
Anche TLOU mi stava ben sotto.

ma oggi giocavo a fallout 76 e mi girava a 2100 1.07v ma mi sembrava folle

Dono89
18-04-2023, 08:02
http://i.imgur.com/maoYXzZl.png (https://imgur.com/maoYXzZ)

io la tenevo così daily. COn curva piatta da AB, se serve come riferimento.

2GHz a nemmeno 1V
Mikael dirà che è binnata, che le 90 sono selezionate ecc, ma io dico un banale wow :D

devil_mcry
19-04-2023, 11:32
io alla fine la tengo così

https://i.imgur.com/l3Cnn6l.png

a 900mV gira sui 1800-1820MHz super conservativa, al superposition 4k ottimizzato gira sui 1850

le ram secondo me danno pochissimo contributo ma 20gbps e 960 di banda sono beni numeri da leggere :D

con questo assetto va un po' più di una 3080 12gb strix o suprime stock (che però non sono cappate a 350w) e va quasi come una trinity 3090 che ha il cap a 350w anche lei (anche la 3080 ti sempre trinity va più o meno li)

stock facevo 14500pti, ora 15600pti penso sia buono dai. Sicuramente potrei tirare fuori di più dalla gpu, ma con questa curva sta sotto ai 2100mhz massimi sempre (a 1.1v) e ha una curva ragionevole penso

Sniper88
20-04-2023, 08:57
io alla fine la tengo così

https://i.imgur.com/l3Cnn6l.png

a 900mV gira sui 1800-1820MHz super conservativa, al superposition 4k ottimizzato gira sui 1850

le ram secondo me danno pochissimo contributo ma 20gbps e 960 di banda sono beni numeri da leggere :D

con questo assetto va un po' più di una 3080 12gb strix o suprime stock (che però non sono cappate a 350w) e va quasi come una trinity 3090 che ha il cap a 350w anche lei (anche la 3080 ti sempre trinity va più o meno li)

stock facevo 14500pti, ora 15600pti penso sia buono dai. Sicuramente potrei tirare fuori di più dalla gpu, ma con questa curva sta sotto ai 2100mhz massimi sempre (a 1.1v) e ha una curva ragionevole penso

Ciao, devil_mcry! Mi posteresti uno screenshot della Curva in MSI Afterburner? Grazie :D

devil_mcry
20-04-2023, 11:22
Ciao, devil_mcry! Mi posteresti uno screenshot della Curva in MSI Afterburner? Grazie :D

dopo faccio ma cmq è stock alzata di +65

Alphard
21-04-2023, 13:38
ragazzi ho una 3060 ti , secondo voi per il 2 k in 144 hz è ancora viabile?

devil_mcry
21-04-2023, 15:10
Ciao, devil_mcry! Mi posteresti uno screenshot della Curva in MSI Afterburner? Grazie :D

https://imgur.com/1KbdH9G

ecco qui

devil_mcry
21-04-2023, 15:11
ragazzi ho una 3060 ti , secondo voi per il 2 k in 144 hz è ancora viabile?
1440p 60 si, 144hz no

mikael84
21-04-2023, 15:36
https://imgur.com/1KbdH9G

ecco qui

che curva hai fatto, quella così è a stock con un negativo.:p

devil_mcry
21-04-2023, 15:41
che curva hai fatto, quella così è a stock con un negativo.:p

è quella stock infatti +65 XD

ora ne sto facendo un'altra cmq non voglio che rimanga cappata sempre a 1800 per dire

ora questa dovrebbe fare 1850 a 900mv circa ma non superaree i 2100 tra poco la carici

devil_mcry
21-04-2023, 15:45
edit così?

https://imgur.com/YoEbSI4

1845@900mV, conservativo

il superposition 4k che faccio per referenza gira tra i 1830 e i 1870 mhz più o meno (i valori sono arrotondati)

oltre 2100 non ci va mai

mikael84
21-04-2023, 16:11
edit così?

https://imgur.com/YoEbSI4

1845@900mV, conservativo

il superposition 4k che faccio per referenza gira tra i 1830 e i 1870 mhz più o meno (i valori sono arrotondati)

oltre 2100 non ci va mai

No, non si fanno così le curve.
https://i.postimg.cc/XNk8mpVv/curva-ab.png

devil_mcry
21-04-2023, 16:22
No, non si fanno così le curve.
https://i.postimg.cc/XNk8mpVv/curva-ab.png

quella è la tua?
comunque come dicevo non voglio una curva piatta così, voglio lasciarla salire di mhz in caso di giochi leggeri, tipo fallout 76 gira a 2100 se la faccio come te non lo farebbe

Nones
21-04-2023, 16:29
quella è la tua?
comunque come dicevo non voglio una curva piatta così, voglio lasciarla salire di mhz in caso di giochi leggeri, tipo fallout 76 gira a 2100 se la faccio come te non lo farebbe

Invece sbagli. Quello è il modo migliore per fare le curve. Anche io la tengo cosi, e come puoi vedere andra al massimo di clock da te impostato con il voltaggio minimo.

Esempio la mia 3060 è settata con 950mv@1970mhz.

https://i.postimg.cc/gL2096YR/Screenshot-12.png (https://postimg.cc/gL2096YR)

mikael84
21-04-2023, 16:50
quella è la tua?
comunque come dicevo non voglio una curva piatta così, voglio lasciarla salire di mhz in caso di giochi leggeri, tipo fallout 76 gira a 2100 se la faccio come te non lo farebbe

La tua non è una curva. La curva si fa settando la tensione per il clock. Facendo così, la tensione rimane fissa al valore impostato.
Altrimenti si appoggia sempre alla tensione più alta. Che nel caso di ampere è meglio levare un pò di tensione per i micropicchi molto alti.:)

devil_mcry
21-04-2023, 17:02
si però cosi sui giochi leggeri perdi prestazioni

io cmq in alto nella seconda ho abbassato il clock senno a 1100mV era a 2150 tipo, idem sotto

la differenza è più che altro che a te a 900mV smette di salire, la mia se il carico lo permette no

io volevo mantenere quel comportamento che ha a stock

considera che io ho il tdp che taglia, sotto carico alto più di 900mV non li riesce a tenere taglia il tdp

Sniper88
21-04-2023, 17:03
https://imgur.com/1KbdH9G

ecco qui

Ah... quindi avevi dato solamente +65MHz. Ecco perché volevo vedere la curva. Non riuscivo a capire. Grazie per il tuo tempo, devil_mcry! :cincin:

devil_mcry
21-04-2023, 17:11
Ah... quindi avevi dato solamente +65MHz. Ecco perché volevo vedere la curva. Non riuscivo a capire. Grazie per il tuo tempo, devil_mcry! :cincin:

si prima si

ora ho fatto +90 per avere 1850 cica a 900mV e poi ho abbassato in alto da 1.1v in giù per evitare che superi i 2100mhz che è la frequenza massima che prendeva prima

per ora gira bene le prestazioni sono abbastanza alte faccio 15750 pti al super position 4k

te per caso hai provato a lanciarlo in quel modo? il tuo processore di sicuro spinge più del mio in game

comunque la mia zotac non è il modello da overclock, ha il tdp di fatto bloccato a 350w (il +10% non fa niente realmente), quindi di fatto mi areno sulle performance di tutti i ga102 a 350w di zotac (pure la 3090 non fa molto di più causa tdp nel mepodello 2x8)

Alphard
21-04-2023, 18:02
1440p 60 si, 144hz no

peccato. purtroppo non credo di fare upgrade con i prezzi correnti. anche perché giochi nuovi tripla A decenti non ci sono

Sniper88
21-04-2023, 18:13
si prima si

ora ho fatto +90 per avere 1850 cica a 900mV e poi ho abbassato in alto da 1.1v in giù per evitare che superi i 2100mhz che è la frequenza massima che prendeva prima

per ora gira bene le prestazioni sono abbastanza alte faccio 15750 pti al super position 4k

te per caso hai provato a lanciarlo in quel modo? il tuo processore di sicuro spinge più del mio in game

comunque la mia zotac non è il modello da overclock, ha il tdp di fatto bloccato a 350w (il +10% non fa niente realmente), quindi di fatto mi areno sulle performance di tutti i ga102 a 350w di zotac (pure la 3090 non fa molto di più causa tdp nel mepodello 2x8)

No, perché ultimamente ho solo del tempo per giocare un po' a The Last of Us. Anche la mia ha solo il 10%. Stavo creando delle curve per poter tenere la GPU a dieta di Watt, soprattutto per i giochi che non necessitano di tanta potenza, così da non dover pagare un rene di bolletta. Poi ho trovato un forum e un ragazzo/signore che aveva già testato questo e copiai direttamente i suoi valori (che riguardano appunto una RTX 3080 12GB):


<200w comes out at 0.756mv @ 1550mhz with a score of 14,000 in time spy. It peaks @ 185w, average is 175w
<250w comes out at 0.775mv @ 1650mhz with a score of 16,700 in time spy. It peaks @ 255w, average is 240w.
<300w comes out at 0.825mv @ 1860mhz with a score of 18,500 in time spy. It peaks @ 315w, average is 295w.
<350w comes out at 0.900mv @ 2000mhz with a score of 19,150 in time spy. it peaks @ 355w, average is 345w.


Ma poi, per motivi di tempo, non testai tutti questi profili. Comunque, IL NUMERO 1, riesce a reggere The Last of Us e tenermi 60FPS (tranne in alcuni ambienti con tantissima luce e tanta geometria; in quel caso, scende leggermente a 57).

Di solito, quando gioco a giochi con RTX pesanti (come Cyberpunk) lascio sempre la scheda a default, ma con TLoU mi dimenticai di cliccare il tasto reset di MSI Afterburner e con sommo stupore vidi che reggeva il gioco senza particolari problemi o crash. :)

mikael84
21-04-2023, 18:20
si però cosi sui giochi leggeri perdi prestazioni

io cmq in alto nella seconda ho abbassato il clock senno a 1100mV era a 2150 tipo, idem sotto

io volevo mantenere quel comportamento che ha a stock

considera che io ho il tdp che taglia, sotto carico alto più di 900mV non li riesce a tenere taglia il tdp


Come hai settato tu, non sei in curva, ma sempre a stock con la tensione. Per far si che prenda la tensione da te inserita, la tensione scelta, deve essere sopra tutte, e dopo lui appiattisce.

Se vuoi usare lo stock più OC o la curva, basta salvarsi i profili su AB. Quando scegli la curva, clicchi sul profilo, e parte in curva.



la differenza è più che altro che a te a 900mV smette di salire, la mia se il carico lo permette no

Teoricamente potrebbe salire ancora, ma è il giusto compromesso.
Considera che queste schede con 1,075mv stanno a 1965, e mediamente riesci a dare giusto qualche step, ma il rapporto clock e tensione comincia ad essere importante.:)

La 3080 12 è cmq mediamente migliore della 10.

devil_mcry
21-04-2023, 18:32
No, perché ultimamente ho solo del tempo per giocare un po' a The Last of Us. Anche la mia ha solo il 10%. Stavo creando delle curve per poter tenere la GPU a dieta di Watt, soprattutto per i giochi che non necessitano di tanta potenza, così da non dover pagare un rene di bolletta. Poi ho trovato un forum e un ragazzo/signore che aveva già testato questo e copiai direttamente i suoi valori (che riguardano appunto una RTX 3080 12GB):


<200w comes out at 0.756mv @ 1550mhz with a score of 14,000 in time spy. It peaks @ 185w, average is 175w
<250w comes out at 0.775mv @ 1650mhz with a score of 16,700 in time spy. It peaks @ 255w, average is 240w.
<300w comes out at 0.825mv @ 1860mhz with a score of 18,500 in time spy. It peaks @ 315w, average is 295w.
<350w comes out at 0.900mv @ 2000mhz with a score of 19,150 in time spy. it peaks @ 355w, average is 345w.


Ma poi, per motivi di tempo, non testai tutti questi profili. Comunque, IL NUMERO 1, riesce a reggere The Last of Us e tenermi 60FPS (tranne in alcuni ambienti con tantissima luce e tanta geometria; in quel caso, scende leggermente a 57).

Di solito, quando gioco a giochi con RTX pesanti (come Cyberpunk) lascio sempre la scheda a default, ma con TLoU mi dimenticai di cliccare il tasto reset di MSI Afterburner e con sommo stupore vidi che reggeva il gioco senza particolari problemi o crash. :)

però la tua forse ha un tdp più alto di base, onestamente non so bene come sono configurate le zotac tipo questa supera i 400w

https://www.techpowerup.com/vgabios/243394/243394

è 3x8 la tua?


Come hai settato tu, non sei in curva, ma sempre a stock con la tensione. Per far si che prenda la tensione da te inserita, la tensione scelta, deve essere sopra tutte, e dopo lui appiattisce.

Se vuoi usare lo stock più OC o la curva, basta salvarsi i profili su AB. Quando scegli la curva, clicchi sul profilo, e parte in curva.



Teoricamente potrebbe salire ancora, ma è il giusto compromesso.
Considera che queste schede con 1,075mv stanno a 1965, e mediamente riesci a dare giusto qualche step, ma il rapporto clock e tensione comincia ad essere importante.:)

La 3080 12 è cmq mediamente migliore della 10.

Io punto ad avere una cosa soft, quasi come se alzassi semplicemente lo slide del clock ma non voglio che cerchi di andare a 2200mhz :D

per il punto a 900mV ho visto che mediamente si parla di 1900+ io nel dubbio sono stato 50mhz sotto così non dovrei avere problemi di sorta, nel senso che mi fa perdere progressi nei giochi perché si pianta.

La cosa comunque che non capisco è la ram, se la alzo fa veramente poca differenza, forse la banda è già più che sufficiente per i tflops che fa la gpu?

Sniper88
21-04-2023, 18:38
però la tua forse ha un tdp più alto di base, onestamente non so bene come sono configurate le zotac tipo questa supera i 400w

https://www.techpowerup.com/vgabios/243394/243394

è 3x8 la tua?


No. La mia ha due connettori da 8 pin. 350W di consumo massimo.

Infatti, quando arrivò la scheda, provai subito Superposition (4K Optimized) a default e ricordo che saliva a 2025MHz di boost e il consumo era di 345.4 Watt. Questo lo ricordo perfettamente. :)

mikael84
21-04-2023, 18:46
però la tua forse ha un tdp più alto di base, onestamente non so bene come sono configurate le zotac tipo questa supera i 400w

https://www.techpowerup.com/vgabios/243394/243394

è 3x8 la tua?




Io punto ad avere una cosa soft, quasi come se alzassi semplicemente lo slide del clock ma non voglio che cerchi di andare a 2200mhz :D

per il punto a 900mV ho visto che mediamente si parla di 1900+ io nel dubbio sono stato 50mhz sotto così non dovrei avere problemi di sorta, nel senso che mi fa perdere progressi nei giochi perché si pianta.



La cosa comunque che non capisco è la ram, se la alzo fa veramente poca differenza, forse la banda è già più che sufficiente per i tflops che fa la gpu?

1900 (che poi sarebbero 1905)x0,9 x il tuo silicio sono easy:)

La ram si, impatta poco in quanto la banda è gigantesca. Fai il conto che tra la 3080 12 a 21 gb/s e la 4090 ci stanno solo 66mb di cache di differenza. Con la 4090 che ha praticamente 3 x la potenza teorica in virgola mobile. Ecco con quest'ultima è meglio occarla.:)

No. La mia ha due connettori da 8 pin. 350W di consumo massimo.

Infatti, quando arrivò la scheda, provai subito Superposition (4K Optimized) a default e ricordo che saliva a 2025MHz di boost e il consumo era di 345.4 Watt. Questo lo ricordo perfettamente. :)

Cmq eseguite tutti il superposition in 4k optimized, ma è blandissimo, il 1080p extreme è ben più pesante. :)

https://overclock3d.net/gfx/articles/2020/10/27164817394l.jpg

Il vero test 4k è l'extreme, che non c'è nella free.

Sniper88
21-04-2023, 19:05
Cmq eseguite tutti il superposition in 4k optimized, ma è blandissimo, il 1080p extreme è ben più pesante. :)

https://overclock3d.net/gfx/articles/2020/10/27164817394l.jpg

Il vero test 4k è l'extreme, che non c'è nella free.

Grazie mille, Mikael! Non sapevo di questo! :)

devil_mcry
21-04-2023, 20:58
No. La mia ha due connettori da 8 pin. 350W di consumo massimo.

Infatti, quando arrivò la scheda, provai subito Superposition (4K Optimized) a default e ricordo che saliva a 2025MHz di boost e il consumo era di 345.4 Watt. Questo lo ricordo perfettamente. :)

a pensavo fosse 3x8

allora è come la mia, solo diversa da vedere

1900 (che poi sarebbero 1905)x0,9 x il tuo silicio sono easy:)

La ram si, impatta poco in quanto la banda è gigantesca. Fai il conto che tra la 3080 12 a 21 gb/s e la 4090 ci stanno solo 66mb di cache di differenza. Con la 4090 che ha praticamente 3 x la potenza teorica in virgola mobile. Ecco con quest'ultima è meglio occarla.:)



Cmq eseguite tutti il superposition in 4k optimized, ma è blandissimo, il 1080p extreme è ben più pesante. :)

https://overclock3d.net/gfx/articles/2020/10/27164817394l.jpg

Il vero test 4k è l'extreme, che non c'è nella free.


sisi so che il 4k è meno pesante in versione ottimizzata ma ho sempre fatto i bench con quello e ora ho lo storico li :D

cmq penso che terrò le ram a 1250, fa numero tondo anche se inutile XD


cmq 15700+ non è male per una 3080 dai a spanne sono al livello di una 3080 ti stock

mikael84
21-04-2023, 22:19
a pensavo fosse 3x8

allora è come la mia, solo diversa da vedere




sisi so che il 4k è meno pesante in versione ottimizzata ma ho sempre fatto i bench con quello e ora ho lo storico li :D

cmq penso che terrò le ram a 1250, fa numero tondo anche se inutile XD


cmq 15700+ non è male per una 3080 dai a spanne sono al livello di una 3080 ti stock

No assolutamente. 1920 (1905) - 20,5 gb/s.:)
Le ram mi danno 200 punti, circa 1 fps.
https://i.postimg.cc/pdWktzLL/superpos-4k.png

devil_mcry
23-04-2023, 10:50
Uhm se rende così poco già sulla tua capisco perché sulla mia non cambia niente, alla fine ha troppa banda mi sa

sulla 3070 mi aveva dato un buon boost la ram anche se è ovviamente un'altra scheda in tutto

però mi faceva strano che non cambiasse niente :D

mikael84
23-04-2023, 11:52
Uhm se rende così poco già sulla tua capisco perché sulla mia non cambia niente, alla fine ha troppa banda mi sa

sulla 3070 mi aveva dato un buon boost la ram anche se è ovviamente un'altra scheda in tutto

però mi faceva strano che non cambiasse niente :D

Considera che la 3070 ha il 34% di potenza teorica in meno (solo di calcolo) rispetto la tua, che vorrebbe dire una banda equivalente di 600 gb/s, nel mio caso 512.

In ogni caso, anche la 3070 bene o male era equilibrata, infatti si è visto che la 3070ti non ha dato alcun boost significativo.

La povera x70 lovelace, si ritrova la potenza teorica nostra, con appena 504 gb/s di banda, + una misera cache di 32mb.

Guarda cosa è successo ad una 3090 portata a 192bit e 468 gb/s (3mb cache)
https://videocardz.com/newz/nvidia-geforce-rtx-3090-has-been-tested-with-custom-20gb-320b-and-12gb-192b-memory-bioses

devil_mcry
23-04-2023, 12:10
Considera che la 3070 ha il 34% di potenza teorica in meno (solo di calcolo) rispetto la tua, che vorrebbe dire una banda equivalente di 600 gb/s, nel mio caso 512.

In ogni caso, anche la 3070 bene o male era equilibrata, infatti si è visto che la 3070ti non ha dato alcun boost significativo.

La povera x70 lovelace, si ritrova la potenza teorica nostra, con appena 504 gb/s di banda, + una misera cache di 32mb.

Guarda cosa è successo ad una 3090 portata a 192bit e 468 gb/s (3mb cache)
https://videocardz.com/newz/nvidia-geforce-rtx-3090-has-been-tested-with-custom-20gb-320b-and-12gb-192b-memory-bioses


bel bios :D cmq quella cache fa davvero tanto sulle nuove

Dono89
24-04-2023, 21:44
Ni
Non sopperisce comunque al taglio del bus
E una 4080 a 256 è davvero ridicola

Aspettiamo la 5070 e vediamo che succede

mikael84
24-04-2023, 21:58
Ni
Non sopperisce comunque al taglio del bus

Sopperisce si
https://cdn.videocardz.com/1/2022/07/RTX3090-TS-2_videocardz-850x478.jpg


E una 4080 a 256 è davvero ridicola

Aspettiamo la 5070 e vediamo che succede

256 + 64mb di cache.
Della 4080 (che è una 70), è ridicola la proporzione dei cuda. Quasi la metà esatta di AD102.
Se ci fosse il chip full, si verificherebbe un 50-55% di differenza tra x90 e x80, roba mai vista.

Dono89
27-04-2023, 12:39
256 + 64mb di cache.
Della 4080 (che è una 70), è ridicola la proporzione dei cuda. Quasi la metà esatta di AD102.
Se ci fosse il chip full, si verificherebbe un 50-55% di differenza tra x90 e x80, roba mai vista.
Si, ma la cache non dovrebbe esser vista come qualcosa on top?
nel senso, mantengo il bus a 320 e ci piazzo i 64mb

in effetti tra 3080 e 3090 ci passava nemmeno il 20%, ma erano entrambi con GA102, ci sta

mikael84
27-04-2023, 13:04
Si, ma la cache non dovrebbe esser vista come qualcosa on top?
nel senso, mantengo il bus a 320 e ci piazzo i 64mb

in effetti tra 3080 e 3090 ci passava nemmeno il 20%, ma erano entrambi con GA102, ci sta

Si teoricamente i benefici della cache sarebbero a pari bus. Diciamo che la x80 è quasi sempre stata a 256bit, quindi ci può anche stare.
Il problema è sotto.

Ciò che ha condizionato tutto è il pauroso salto di PP, che va a colmare tutto con il clock.

La 4080, è una 4080 grazie a quello, altrimenti è più una x70.