PDA

View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95

Andy1111
01-02-2021, 10:38
Stavo guardando i risultati dei PC che ho usato negli ultimi 3 anni e devo dire che gli fps medi sono praticamente triplicati...


https://www.3dmark.com/compare/spy/17968652/spy/14707419/spy/4234700/spy/543078

980ti vs 1080 vs 2080ti vs 3080

saranno 5anni di gpu credo :P

Mi avete incuriosito e ho fatto anche io una ricerca tra tutte le mie vecchie schede, però con FIRE STRIKE, ci ho messo anche la mia vecchia R9 270X che ancora è viva e lavora nel pc di mio fratello

https://www.3dmark.com/compare/fs/3243249/fs/8305862/fs/12664267/fs/14135349/fs/18485749#

fraussantin
01-02-2021, 10:42
Sì era colpa del xmp delle ram, una volta disattivato ed impostate manualmente a 3200 mhz si è risolto

Cmq é strano perché quelle RAM tengono bene su zen2.

Cmq dipende un po' da tanti fattori , mobo BIOS in primis ma anche alimentazione imho , pensa che io con la 2070 non tenevo xmp( 3600c18) ma stava tranquilla a 3200c14 , con la 3080 stesso BIOS non tiene il 3200c14 , ma sta ad xmp. Ci capite nulla voi? Io no

Cmq non cambia una sega nei giochi le ram spinte veramente soldi buttati .

jing1988
01-02-2021, 10:50
Quella in firma :D


Eh scusa, è che scrivo da Tapatalk e non riesco a vedere le firme. Hahaha.


Inviato dal mio iPhone utilizzando Tapatalk

Cutter90
01-02-2021, 10:53
Eh scusa, è che scrivo da Tapatalk e non riesco a vedere le firme. Hahaha.


Inviato dal mio iPhone utilizzando Tapatalk

I9-10900 KF

dinamite2
01-02-2021, 11:12
Aggiornamento cpu+gpu: ho trovato un buon 1.2 vcore a 5.0 ghz per la mia cpu. Ingame sto tra i 50 e i 60 ° sui giochi più spinti come cp2077. Su cinebench tocco i 90°. Sono soddisfatto. posso scegliere con molta calma e aspettare un offerta per l'AIO da 280.

Ad ora resto con il bios evga da 500 watt. Ma quest'estate sicuro che ripasso al suo originale. In ghostrunner, ci sono livelli che si prendono 490 watt e arrivo a toccare i 70 gradi con 102 sulle ram.

hanno presentato da poco l'EK-AIO 280 D-RGB che non sarà sicuramente male ;)
e non costa tantissimo...

Giovamas
01-02-2021, 11:32
Cmq é strano perché quelle RAM tengono bene su zen2.

Cmq dipende un po' da tanti fattori , mobo BIOS in primis ma anche alimentazione imho , pensa che io con la 2070 non tenevo xmp( 3600c18) ma stava tranquilla a 3200c14 , con la 3080 stesso BIOS non tiene il 3200c14 , ma sta ad xmp. Ci capite nulla voi? Io no

Cmq non cambia una sega nei giochi le ram spinte veramente soldi buttati .

a me le bdie in sign stavano a 4400 con timing rilassati con la 2080ti senza problemi per mesi. con la 3080 nei primi giorni trovai di tutto.. da blocco sui dialoghi / cinematiche al crash che dicevo sopra sul mio test personale. tutto ok invece i test sintetici. ed erano le memorie o almeno credo visto che come le ho abbassate problemi zero o perlomeno riconducibili all'OC della GPU.. a volte non si capisce proprio

NODREAMS
01-02-2021, 11:42
Ragazzi, da poco esperto in materia, qualche consiglio su come impostare la mia GPU?

Un profilo Undervolt e un profilo OC ?

Ho una PNY RTX 3070 XRL8 Triventola.

https://i.ibb.co/PWhcGhR/3070oc.jpg


Grazie a tutti :)

magic carpet
01-02-2021, 11:49
Probabilissimo .

Anche se Valhalla é uno dei giochi che "consuma" di meno .

Prob se provi cyberpunk si spengerà prima.


PS giocato a 850@1900 per diverse ore col nuovo BIOS evga e gli ultimi driver non ha piú crashato.

Penso proprio che fosse un qualche problema di gestione della scheda. Spero almeno , vediamo se lo rifa.Mi consigliate di aspettare se lo fa ancora oppure rischio di bruciare qualcosa?
E' strano perché prima di Valhalla mi sono fatto altre 60 ore in Cyberpunk e mai un problema.

fraussantin
01-02-2021, 11:50
Mi consigliate di aspettare se lo fa ancora oppure rischio di bruciare qualcosa?
E' strano perché prima di Valhalla mi sono fatto altre 60 ore in Cyberpunk e mai un problema.Ti consiglio di cambiarlo il prima possibile.

Valhalla generalmente a stock consuma sui 250\270w , ma in dei punti ha picchi oltre i 300. Se in queste situazioni ti ha sbroccato si é spento.

freddye78
01-02-2021, 12:08
Cmq é strano perché quelle RAM tengono bene su zen2.

Cmq dipende un po' da tanti fattori , mobo BIOS in primis ma anche alimentazione imho , pensa che io con la 2070 non tenevo xmp( 3600c18) ma stava tranquilla a 3200c14 , con la 3080 stesso BIOS non tiene il 3200c14 , ma sta ad xmp. Ci capite nulla voi? Io no

Cmq non cambia una sega nei giochi le ram spinte veramente soldi buttati .

Alimentazione tenderei ad escluderla visto che la PSU è nuova di pacca ed è pure di alto livello(vedi firma). Propenderei per il bios, evidentemente la 3080 spreme di più il sistema e il bios con xmp va in crash, cmq è un falso problema una volta che tengono la frequenza impostate in manuale sono a posto.

beatl
01-02-2021, 12:12
Quella in firma :D

OT Hyperthreading abilitato? se si .. ottima CPU

kira@zero
01-02-2021, 12:22
Ragazzi, da poco esperto in materia, qualche consiglio su come impostare la mia GPU?

Un profilo Undervolt e un profilo OC ?

Ho una PNY RTX 3070 XRL8 Triventola.

https://i.ibb.co/PWhcGhR/3070oc.jpg


Grazie a tutti :)

Semplice, devi giocare con la curva, in primis trovando il voltaggio massimo che puoi dare senza sforare il PL nei giochi e bench della xrl8 e poi devi trovare il limite dei MHz con quel voltaggio. Esempio con la mia "vecchia" trio 3070 con BIOS stock aveva un pl di 250w riuscivo a salire di volt a 0.918 e di mhz arrivava massimo nei bench a 2070mhz, io stabile la tenevo per sicurezza a 2040mhz in quella situazione. Per quanto riguarda le RAM le tengo a +600/700 in gaming.

Con la 3070 strix non ho questi problemi, dato il Power esagerato che ha non arriva mai al limite neanche con 1.1v che è il massimo che posso impostare

fraussantin
01-02-2021, 12:31
Ragazzi, da poco esperto in materia, qualche consiglio su come impostare la mia GPU?



Un profilo Undervolt e un profilo OC ?



Ho una PNY RTX 3070 XRL8 Triventola.



https://i.ibb.co/PWhcGhR/3070oc.jpg





Grazie a tutti :)

Non so la 3070 , ma penso sia uguale alla 80

Nel caso della 80
Posta per iniziare 900@1900 che é u n valore safe che dovrebbe andare su tutte , poi abbassi tutte le linee dopo il 900 sotto 1900 e fai applica. Se sono piú basse di 1900 le imposterà da sé a quel valore.

E testi . Poi puoi divertirti a alzare di 15 in 15 finché regge.

Per testare consiglio la demo di bright memory .

Nel caso volessi spingere di piú dato i consumi ridotti puoi giocare anche su 1 volt o piú e vedere quanto tieni.

Tra l'altro con l'ultima beta dovrebbero aver sistemato l'oc scanner che su Turing funzionava fa dio

Cutter90
01-02-2021, 12:39
OT Hyperthreading abilitato? se si .. ottima CPU

Devo controllare, ma mi pare proprio di si

Giovamas
01-02-2021, 13:29
Devo controllare, ma mi pare proprio di si

Se HT On davvero ottima

Micropoint_ITA
01-02-2021, 16:16
Non so la 3070 , ma penso sia uguale alla 80

Nel caso della 80
Posta per iniziare 900@1900 che é u n valore safe che dovrebbe andare su tutte , poi abbassi tutte le linee dopo il 900 sotto 1900 e fai applica. Se sono piú basse di 1900 le imposterà da sé a quel valore.

E testi . Poi puoi divertirti a alzare di 15 in 15 finché regge.

Per testare consiglio la demo di bright memory .

Nel caso volessi spingere di piú dato i consumi ridotti puoi giocare anche su 1 volt o piú e vedere quanto tieni.

Tra l'altro con l'ultima beta dovrebbero aver sistemato l'oc scanner che su Turing funzionava fa dio

Cosa significa "poi abbassi le linee dopo il 900 sotto 1900..."? Da quel che ho capito basta alzare la curva (per esempio 900 a 1900) e stop, dopo aver cliccato "applica" la curva si modifica da sola (con una curva iniziale che poi diventa piatta esattamente dove abbiamo alzato il valore per poi rimanere sempre piatta)

fraussantin
01-02-2021, 16:21
Cosa significa "poi abbassi le linee dopo il 900 sotto 1900..."? Da quel che ho capito basta alzare la curva (per esempio 900 a 1900) e stop, dopo aver cliccato "applica" la curva si modifica da sola (con una curva iniziale che poi diventa piatta esattamente dove abbiamo alzato il valore per poi rimanere sempre piatta)La curva si applica da sola solo se i valori di voltaggio più alto hanno una frequenza più bassa del valore voluto.

O abbassi tutta la curva prima sotto il valore desiderato , ma perdi di efficenza in idle ( imho) , o fai a quel modo.

Micropoint_ITA
01-02-2021, 18:15
La curva si applica da sola solo se i valori di voltaggio più alto hanno una frequenza più bassa del valore voluto.

O abbassi tutta la curva prima sotto il valore desiderato , ma perdi di efficenza in idle ( imho) , o fai a quel modo.

Giuro non ho capito. Esiste una guida video? Le uniche che ho visto è quella in prima pagina e un tutorial su YT che spiega esattamente come in prima pagina, non ho trovato nulla a riguardo di come la intendi tu che vada a impostare in maniera più precisa.
Grazie :)

beatl
01-02-2021, 18:45
Giuro non ho capito. Esiste una guida video? Le uniche che ho visto è quella in prima pagina e un tutorial su YT che spiega esattamente come in prima pagina, non ho trovato nulla a riguardo di come la intendi tu che vada a impostare in maniera più precisa.
Grazie :)

Allora ... CTRL+F dalla sezione principale di AF e si apre una finestra con una curva .. vai nello slider del core clock in AF e abbassi la frequenza di un 200Mhz diciamo. Tornando nella finestra di cui prima vedrai che tutta la curva si e' " abbassata" ... adesso scegli 900 mV sull-asse delle x e vai su in verticale e guarda dove incontra la curva. prendi il puntino e lo trascini in alto fino ai 1900 Mhz che vedi sullasse Y. 'Vedrai adesso una curva con uno ''spike'' causato dalla tua manovra, ora schiacci CTRL+L e ti locca la frequenza e i mV. vai nella sezione principale di AF e fai ''apply" e vedrai che la frequenza della scheda video si alzerà a 1900 o poco più e rimarrà' ferma li. Torna nella finestra della curva, togli il lock con un altro CTRL+L (la linea verticale gialla che passa per la frequenza da te scelta dovrebbe sparire), torna in AF e schiaccia ancora apply. Adesso la scheda a riposo abbassa le frequenze normalmente e sotto sforzo boostera' a 1900 con 900mV, fissa, senza oscillazioni che no dipendano da temperatura e sfondamento del power limit

Micropoint_ITA
01-02-2021, 19:16
Allora ... CTRL+F dalla sezione principale di AF e si apre una finestra con una curva .. vai nello slider del core clock in AF e abbassi la frequenza di un 200Mhz diciamo. Tornando nella finestra di cui prima vedrai che tutta la curva si e' " abbassata" ... adesso scegli 900 mV sull-asse delle x e vai su in verticale e guarda dove incontra la curva. prendi il puntino e lo trascini in alto fino ai 1900 Mhz che vedi sullasse Y. 'Vedrai adesso una curva con uno ''spike'' causato dalla tua manovra, ora schiacci CTRL+L e ti locca la frequenza e i mV. vai nella sezione principale di AF e fai ''apply" e vedrai che la frequenza della scheda video si alzerà a 1900 o poco più e rimarrà' ferma li. Torna nella finestra della curva, togli il lock con un altro CTRL+L (la linea verticale gialla che passa per la frequenza da te scelta dovrebbe sparire), torna in AF e schiaccia ancora apply. Adesso la scheda a riposo abbassa le frequenze normalmente e sotto sforzo boostera' a 1900 con 900mV, fissa, senza oscillazioni che no dipendano da temperatura e sfondamento del power limit

Perfetto grazie! Mi sono salvato lo screen ;)

beatl
01-02-2021, 19:27
Perfetto grazie! Mi sono salvato lo screen ;)

No problem .. se hai problemi chiedi pure, anche io all'inizio non avevo capito, quanfo lo fai una volta poi vai a memoria.. una cosa mi sono dimenticato. Fai i l tutto a scheda "fredda" , quindi almeno dopo un po'di riposo al desk .. almeno 10 min cosi che le temperature siano le piu' basse possibili

Cutter90
01-02-2021, 19:46
Se HT On davvero ottima

Mi correggo. Sto a 1.17, che diventano 1.18 v quando uso Cinebench a 5 Ghz costanti su tutti i core.Con HT abilitato

Pepcan
01-02-2021, 20:20
Scusate l'ignoranza, come mai alcuni di voi fanno l'undervolt?

Inviato dal mio SM-G965F utilizzando Tapatalk

freddye78
01-02-2021, 20:25
Scusate l'ignoranza, come mai alcuni di voi fanno l'undervolt?

Inviato dal mio SM-G965F utilizzando TapatalkMinor consumo e minor calore, quindi sale un po' di più col boost

Micropoint_ITA
01-02-2021, 20:28
No problem .. se hai problemi chiedi pure, anche io all'inizio non avevo capito, quanfo lo fai una volta poi vai a memoria.. una cosa mi sono dimenticato. Fai i l tutto a scheda "fredda" , quindi almeno dopo un po'di riposo al desk .. almeno 10 min cosi che le temperature siano le piu' basse possibili
Grazie! Settimana prox dovrebbe arrivarmi la Holo poi testo a dovere

beatl
01-02-2021, 21:30
Mi correggo. Sto a 1.17, che diventano 1.18 v quando uso Cinebench a 5 Ghz costanti su tutti i core.Con HT abilitato

OT ottima CPU non c'e' che dire!

(THE REAL) Neo
01-02-2021, 22:58
Minor consumo e minor calore, quindi sale un po' di più col boostEsattamente.
Inoltre fà meno casino di ventole,e non fluttua di frequenze.

Micropoint_ITA
02-02-2021, 08:03
Esattamente.
Inoltre fà meno casino di ventole,e non fluttua di frequenze.
Non capisco perché non sono state ottimizzate meglio lato temp/consumi già a stock...

Cutter90
02-02-2021, 08:59
Non capisco perché non sono state ottimizzate meglio lato temp/consumi già a stock...

E' un po quello che sto riscontrando sulla nuova scheda madre e cpu. Quando avevo il 6700k e la z170 auto e adaptive erano perfetti. Qui danno una casino di volt alla carlona scaldando una follia.

glaucos
02-02-2021, 09:51
Non capisco perché non sono state ottimizzate meglio lato temp/consumi già a stock...

Perché i chip per questioni fisiche del processo produttivo non escono tutti identici e non possono mettersi a ottimizzarli uno per uno perché costerebbe troppo. Fanno una media che vada abbastanza bene per tutti, poi se tu vuoi vai a farti l'ottimizzazione specifica per il tuo chip.

fraussantin
02-02-2021, 09:54
Non capisco perché non sono state ottimizzate meglio lato temp/consumi già a stock...Perchè , proprio come per AMD in passato , ma anche oggi un po' ,non selezionano i chip che già sono pochi di suo.
Se becchi quello sfigato hai bisogno di quei voltaggi , se ne becchi uno buono puoi calare.

Quello che dovrebbe fare NVIDIA secondo me è creare un tool di test per undervolt in modo da controllare che ogni singolo transistor funzioni bene a quel voltaggio.

Che poi è quello che fa ocscanner solo che nell'altro verso.

Alekos Panagulis
02-02-2021, 10:53
Non capisco perché non sono state ottimizzate meglio lato temp/consumi già a stock...Ogni chip è diverso dall'altro perché dipende dalla qualità del silicio, che a sua volta dipende dalla zona del wafer da cui viene prelevato il silicio stesso.

L'ottimizzazione va fatta ad hoc su ogni singolo chip, quindi capirai che Nvidia non può farlo su milioni di sample. È per questo che molti si cimentano nel downvolting, con risultati spesso agli antipodi da gpu a gpu.
È la cosiddetta "silicon lottery", espressione veramente azzeccata.

Inviato dal mio Mi 9T Pro utilizzando Tapatalk

Cutter90
02-02-2021, 10:59
Ogni chip è diverso dall'altro perché dipende dalla qualità del silicio, che a sua volta dipende dalla zona del wafer da cui viene prelevato il silicio stesso.

L'ottimizzazione va fatta ad hoc su ogni singolo chip, quindi capirai che Nvidia non può farlo su milioni di sample. È per questo che molti si cimentano nel downvolting, con risultati spesso agli antipodi da gpu a gpu.
È la cosiddetta "silicon lottery", espressione veramente azzeccata.

Inviato dal mio Mi 9T Pro utilizzando Tapatalk

Ma questo fenomeno si è ampliato molto con le ultime serie. Quando avevo la 1080 ti non c'era tutto ciò

amon.akira
02-02-2021, 12:33
Ma questo fenomeno si è ampliato molto con le ultime serie. Quando avevo la 1080 ti non c'era tutto ciò

undervoltavo anche con maxwell, avevo un asic 95% e tenevo la 980ti a 1430mhz con voltaggi pascal 1.1 consumava 250-260w anzichè 350 XD

Alekos Panagulis
02-02-2021, 13:19
Ma questo fenomeno si è ampliato molto con le ultime serie. Quando avevo la 1080 ti non c'era tutto ciòAppunto, si è ampliato perché con Touring e Ampere siamo arrivati a power drain e thermal design parossistici, fuori da ogni standard, e quindi si guadagnano gradi e stabilità semplicemente downvoltando.
Pero questa è una caratteristica intrinseca dei chip, ed è sempre stati così.
Ho provato a spiegare all'amico che l'ha chiesto perché Nvidia non possa fare questo lavoro di ottimizzazione per ogni GPU.

Inviato dal mio Mi 9T Pro utilizzando Tapatalk

Predator_1982
02-02-2021, 13:46
P
Quello che dovrebbe fare NVIDIA secondo me è creare un tool di test per undervolt in modo da controllare che ogni singolo transistor funzioni bene a quel voltaggio.

Che poi è quello che fa ocscanner solo che nell'altro verso.

bello ma assolutamente utopistico... Il rischio che un utente segnali schede difettose solo perché non stabili in regime di UV è alto. Ma alla fine direi che non c'è nemmeno più di tanto bisogno che lo creino, ognuno di noi con utility come AB può crearsi una curva e testarne la stabilità sul campo, test migliore non esiste.

Tante volte i check che i tool automatici fanno non rispecchiano una situazione reale di stabilità nell'uso quotidiano. Bei tempi quando non NiBitor si editava direttamente il bios delle schede video e si modificava a proprio piacimento.

A proposito di vbios, ma qualcuno di voi sa che differenze ci sono sulle 3080 FE tra i seguenti vbios?:

1) 94.02.27.00.09
2) 94.02.27.00.13

fraussantin
02-02-2021, 14:32
bello ma assolutamente utopistico... Il rischio che un utente segnali schede difettose solo perché non stabili in regime di UV è alto. Ma alla fine direi che non c'è nemmeno più di tanto bisogno che lo creino, ognuno di noi con utility come AB può crearsi una curva e testarne la stabilità sul campo, test migliore non esiste.

Tante volte i check che i tool automatici fanno non rispecchiano una situazione reale di stabilità nell'uso quotidiano. Bei tempi quando non NiBitor si editava direttamente il bios delle schede video e si modificava a proprio piacimento.

A proposito di vbios, ma qualcuno di voi sa che differenze ci sono sulle 3080 FE tra i seguenti vbios?:

1) 94.02.27.00.09
2) 94.02.27.00.13
Mi sto rendendo conto proprio che non è così semplice.
più che altro testarne la stabilità.

perchè finire un gioco in rt senza crash e pensi di essere a posto , poi ne metti un altro che la usa meno e random crasha e non sai se è il gioco o se i settaggi.

Valhalla.. senza far nomi ( che oggi dopo 4 giorni e ricrashato porc putt)

Ma che siano le ram ? è possibile che le ram di sistema facciano crashare un gioco? senza dare bsod?

Predator_1982
02-02-2021, 15:08
Ma che siano le ram ? è possibile che le ram di sistema facciano crashare un gioco? senza dare bsod?

secondo me si, ma la certezza non potrai mai averla. Windows ormai è abbastanza capace di segregare un processo (nel tuo caso quello del gioco) in modo tale che, se crasha quello, non mandi in crisi l'intero sistema.


Diventa dunque più complicato capire esattamente quale sia la causa vera se non con tantissime prove e controprove.

Nulla dunque di cosi strano a mio parere...ovvio che così su due piedi mi verrebbe da pensare più che altro ad una instabilità della GPU

freddye78
02-02-2021, 15:10
Ma che siano le ram ? è possibile che le ram di sistema facciano crashare un gioco? senza dare bsod?Nel mio caso si, ho dovuto togliere l'xmp ed impostare manualmente la frequenza delle ram perché cyberpunk e doom eternal mi crashavano,cioè blocco e ritorno al desktop.

SinapsiTXT
02-02-2021, 15:15
Nel mio caso si, ho dovuto togliere l'xmp ed impostare manualmente la frequenza delle ram perché cyberpunk e doom eternal mi crashavano

Posso chiederti se hai tempo e voglia di fare questi test sulle ram con i seguenti programmi:
- memtest86
- stress test ram con Aida64
- TestMem5 v0.12
- maxxmem

Perchè mi sembra strano che tu riesca a chiudere questi test (almeno i primi 2) ma poi crashare con cyberpunk o doom eternal.

Nemesis8719
02-02-2021, 15:16
Nel mio caso si, ho dovuto togliere l'xmp ed impostare manualmente la frequenza delle ram perché cyberpunk e doom eternal mi crashavano,cioè blocco e ritorno al desktop.
Io sono giorni che ogni tanto a caso ho qualche crash e ritorno al desktop, pensavo fossero i driver ma lo fa anche con quelli più vecchi. Ho disabilitato xmp delle ram ma sembra non cambiare nulla, inizio a pensare sia la scheda visto che non la 3090 e la 3070 non avevo problemi :rolleyes::(
Scheda a stock 1905mhz, in oc sale praticamente nulla, già col preset oc predefinito nel programma asus a 1935mhz ogni tanto crasha.

freddye78
02-02-2021, 15:24
Posso chiederti se hai tempo e voglia di fare questi test sulle ram con i seguenti programmi:

- memtest86

- stress test ram con Aida64

- TestMem5 v0.12

- maxxmem



Perchè mi sembra strano che tu riesca a chiudere questi test (almeno i primi 2) ma poi crashare con cyberpunk o doom eternal.Purtroppo non ho molto tempo e quando riesco, gioco! Magari quando finisco Cyberpunk ci provo

freddye78
02-02-2021, 15:25
Io sono giorni che ogni tanto a caso ho qualche crash e ritorno al desktop, pensavo fossero i driver ma lo fa anche con quelli più vecchi. Ho disabilitato xmp delle ram ma sembra non cambiare nulla, inizio a pensare sia la scheda visto che non la 3090 e la 3070 non avevo problemi :rolleyes::(
Scheda a stock 1905mhz, in oc sale praticamente nulla, già col preset oc predefinito nel programma asus a 1935mhz ogni tanto crasha.
Hai provato a disinstallare il programma asus?

fraussantin
02-02-2021, 15:26
Nel mio caso si, ho dovuto togliere l'xmp ed impostare manualmente la frequenza delle ram perché cyberpunk e doom eternal mi crashavano,cioè blocco e ritorno al desktop.Cyberpunk fila liscio . Il problema è Valhalla. Se ritrovo un punto dove crasha sempre provo a togliere xmp e.vwdo come si comporta.

freddye78
02-02-2021, 15:29
Cyberpunk fila liscio . Il problema è Valhalla. Se ritrovo un punto dove crasha sempre provo a togliere xmp e.vwdo come si comporta.Ma c'è un punto preciso dove capita? No a random?a me con cyberpunk ed eternal capitava casualmente, c'erano volte in cui crashava dopo pochi secondi, altre in cui giocavo 5 minuti per poi crashare

fraussantin
02-02-2021, 15:29
Ma c'è un punto preciso dove capita? No a random?a me con cyberpunk ed eternal capitava casualmente, c'erano volte in cui crashava dopo pochi secondi, altre in cui giocavo 5 minuti per poi crashareCapita random ma a volte trovi quella situazione dove capita sempre.

Thunder-74
02-02-2021, 16:01
OT... vabbè che CyberBug2077 fa acqua da tutte le parti, ma questo è il colmo hahahah

Attenzione ai modder: gli hacker possono utilizzare Cyberpunk 2077 per hackerare il tuo PC

LINK (https://www.overclock3d.net/news/software/modders_beware_-_hackers_can_use_cyberpunk_2077_to_hack_your_pc/1)

fine OT

Alekos Panagulis
02-02-2021, 16:25
A proposito di consumi, c'è uno scenario in cui sto sperimentando quanto poco sia ottimizzato questo aspetto nei driver.
In Ori and the will of the Wisps la 3080 spara oltre 370w e 65°, con il gioco in 4k fisso a 120 fps. Ho provato ad abbassare il PL e riesco a scendere fino al 60% senza perdere frames. Ma non dovrebbero essere i drivers a fare questo lavoro?

TigerTank
02-02-2021, 16:33
A proposito di consumi, c'è uno scenario in cui sto sperimentando quanto poco sia ottimizzato questo aspetto nei driver.
In Ori and the will of the Wisps la 3080 spara oltre 370w e 65°, con il gioco in 4k fisso a 120 fps. Ho provato ad abbassare il PL e riesco a scendere fino al 60% senza perdere frames. Ma non dovrebbero essere i drivers a fare questo lavoro?

Può essere...magari i drivers non sono ancora ottimizzati per quel titolo anche se lasci "adattivo" o "potenza ottimale" invece delle prestazioni massime.
Prova a vedere con altri titoli leggeri e magari più datati.

MikkiClock
02-02-2021, 17:31
Capita random ma a volte trovi quella situazione dove capita sempre.
Hai provato a mettere le ram a jdec per vedere?

MikkiClock
02-02-2021, 17:33
Ho una ASUS TUF Gaming RTX 3070 in arrivo qualche consiglio? Meglio undervolt o meglio overclock? Ho letto pareri discordanti...:what:

SinapsiTXT
02-02-2021, 17:45
Ho una ASUS TUF Gaming RTX 3070 in arrivo qualche consiglio? Meglio undervolt o meglio overclock? Ho letto pareri discordanti...:what:

Potrà essere utile fare confronti con la mia Tuf e con quella di gabmamb ;)

La mia è la versione OC ma credo che nella pratica non cambi molto.
Ad ora ho solo messo gli ultimi driver nvidia e aggiornato il bios (solo sul profilo performance), per i test di undervolt mi sarebbe piaciuto prima avere anche tutte le ventole installate per il giusto airflow (e sono passati 20 giorni dall'ordine delle noctua :fagiano: ).

bagnino89
02-02-2021, 17:56
Può essere...magari i drivers non sono ancora ottimizzati per quel titolo anche se lasci "adattivo" o "potenza ottimale" invece delle prestazioni massime.

Prova a vedere con altri titoli leggeri e magari più datati.Non sono sparite queste opzioni negli ultimi driver? Io adesso trovo solo "normal" o prestazioni massime.

MikkiClock
02-02-2021, 18:42
Potrà essere utile fare confronti con la mia Tuf e con quella di gabmamb ;)

La mia è la versione OC ma credo che nella pratica non cambi molto.
Ad ora ho solo messo gli ultimi driver nvidia e aggiornato il bios (solo sul profilo performance), per i test di undervolt mi sarebbe piaciuto prima avere anche tutte le ventole installate per il giusto airflow (e sono passati 20 giorni dall'ordine delle noctua :fagiano: ).
Anche la mia, è la ASUS GeForce RTX 3070 TUF Gaming OC
Sarà un piacere confrontare i bench e e le prestazioni.;) Per l'undervolt è valida la mini guida postata ad altro utente qualche pagina fa? Devo mettere armoury crate per forza data la M.B. in firma, o me la cavo con l' ultima vers. di Aura Synch? Crate lo odio!:huh:

MikkiClock
02-02-2021, 18:45
Pensavo di partire da 900mv. 1920... Che ne pensi SinapsiTXT dato che hai la stessa scheda?

MikkiClock
02-02-2021, 18:51
Potrà essere utile fare confronti con la mia Tuf e con quella di gabmamb ;)

La mia è la versione OC ma credo che nella pratica non cambi molto.
Ad ora ho solo messo gli ultimi driver nvidia e aggiornato il bios (solo sul profilo performance), per i test di undervolt mi sarebbe piaciuto prima avere anche tutte le ventole installate per il giusto airflow (e sono passati 20 giorni dall'ordine delle noctua :fagiano: ).

L'ultima cosa poi mi taccio. Ho scaricato un bios update RTX3070_V1 di dicembre qual'è il numero di versione? eventualmente prima di flashare lo controllo, va fatto sul bios "performance" giusto? Altra cosa, su A.B. come è lo slider del PL?

Nemesis8719
02-02-2021, 19:00
Potrà essere utile fare confronti con la mia Tuf e con quella di gabmamb ;)

La mia è la versione OC ma credo che nella pratica non cambi molto.

Ci sono anch'io con la tuf oc 3070:O

MikkiClock
02-02-2021, 19:10
Ci sono anch'io con la tuf oc 3070:O
OK! :help: Come l' hai settata?

Nemesis8719
02-02-2021, 19:36
OK! :help: Come l' hai settata?
1985mhz gpu clock e +1500mhz sulle memorie, mentre gioco a Red Dead Redemption 2 il sta sui 2145-55 con temperatura massima di 62gradi con impostazione massima su ultra a 1440p, 70-74 fps circa

MikkiClock
02-02-2021, 20:26
1985mhz gpu clock e +1500mhz sulle memorie, mentre gioco a Red Dead Redemption 2 il sta sui 2145-55 con temperatura massima di 62gradi con impostazione massima su ultra a 1440p, 70-74 fps circa
Ok, mi sembra un buon margine dai 1845@ "certificati" da asus
Ma che voltaggio hai impostato? il bios lo hai aggiornato?
Il mio monitor è da 3440x1440, quindi direi un 3K come risoluzione...

Nemesis8719
02-02-2021, 20:31
Ok, mi sembra un buon margine dai 1845@ "certificati" da asus
Ma che voltaggio hai impostato? il bios lo hai aggiornato?
Il mio monitor è da 3440x1440, quindi direi un 3K come risoluzione...
Ho solo aggiornato il bios, impostato clock manualmente, sale anche a oltre 2000 ma meno stabile. Non tutte salgono, ho avuto una dual asus e più di 1900 non saliva

TigerTank
02-02-2021, 20:31
Non sono sparite queste opzioni negli ultimi driver? Io adesso trovo solo "normal" o prestazioni massime.

Io con la mia sto usando i 461.40 e ho le solite 3 opzioni energetiche...
Con le ampère sono cambiate?

joytag
02-02-2021, 20:58
Ragazzi presa una 3070 zotac White edition doppia ventola. Rosico perché l'ho pagata troppo (729) però volevo completare la steam machine collegata al cx :sofico:

Pagata davvero troppo. Io sono riuscito a prendere su Amazon.it 15 giorni fa una Gigabyte rtx 3070 Aorus Master pagata cara esattamente 792 euro, tra l'altro è stato solo :ciapet:
Ora la mia la si trova a 820 euro
Ormai i prezzi sono già saliti in tutti gli store on line anche di 150-200 euro sia per le 3070 che per le 3080.. Che disastro :doh:

glaucos
02-02-2021, 20:59
A proposito di consumi, c'è uno scenario in cui sto sperimentando quanto poco sia ottimizzato questo aspetto nei driver.
In Ori and the will of the Wisps la 3080 spara oltre 370w e 65°, con il gioco in 4k fisso a 120 fps. Ho provato ad abbassare il PL e riesco a scendere fino al 60% senza perdere frames. Ma non dovrebbero essere i drivers a fare questo lavoro?

Anche io con qualche gioco poco pesante e il cap impostato a 90 noto che lasciando la scheda libera arriva quasi a 100% di utilizzo e relativa temperatura "alta" mentre se imposto il power limit a 50% la temperatura chiaramente non sale molto e però mantengo lo stesso i 90 FPS fissi... ben strano...

Nemesis8719
02-02-2021, 21:00
Pagata davvero troppo. Io sono riuscito a prendere su Amazon.it 15 giorni fa una Gigabyte rtx 3070 Aorus Master pagata cara esattamente 792 euro, tra l'altro è stato solo :ciapet:
Ora la mia la si trova a 820 euro
Ormai i prezzi sono già saliti in tutti gli store on line anche di 150-200 euro sia per le 3070 che per le 3080.. Che disastro :doh:
Decisamente troppo anche la master a 792 per quanto mi riguarda :asd:

bagnino89
02-02-2021, 21:03
Io con la mia sto usando i 461.40 e ho le solite 3 opzioni energetiche...
Con le ampère sono cambiate?

Mi sa di sì, ma magari aspetto la conferma di altri.

joytag
02-02-2021, 21:05
Decisamente troppo anche la master a 792 per quanto mi riguarda :asd:

E lo so, sono d'accordo con te ma stavo con l'integrata da mesi.. e stavo sclerando :D

Lucabeer
02-02-2021, 22:21
Ho una ASUS TUF Gaming RTX 3070 in arrivo qualche consiglio? Meglio undervolt o meglio overclock? Ho letto pareri discordanti...:what:

Stessa scheda, e alla fine mi sono tenuto su questi valori di downvolting:

800 mV: +210 Mhz
825 mV: +195 Mhz
850 mV: +165 Mhz
875 mV: +165 Mhz
900 mV: +165 Mhz
925 mV: +165 Mhz
950 mV: +165 Mhz
975 mV: +135 Mhz
1000 mV: +105 Mhz
1025 mV: +90 Mhz (assoluto a 40 gradi: 2055 Mhz, massima frequenza teorica di boost)
poi tutto piatto ovvero
1050 mV: +60 Mhz
1075 mV: +30 Mhz
1100 mV: +15 Mhz
e dopo nessun incremento di Mhz

Insieme a questo ho overcloccato le VRAM a +700, e ho lasciato a standard power limit e temperature limit.

Va più veloce che stock (tiene il boost stabilmente più a lungo), scalda meno e non crasha con TimeSpy, Furmark e Bright Memory Infinite RTX demo impostato a 4K + RTX Ultra High + DLSS Quality.

Le frequenze le potevo tirare tranquillamente più in alto, a 2100 Mhz di picco di boost e li reggeva, ma facendola scaldare di più e di fatto senza guadagnare niente in prestazioni (il boost medio rimaneva uguale).

MikkiClock
03-02-2021, 09:14
Stessa scheda, e alla fine mi sono tenuto su questi valori di downvolting:

800 mV: +210 Mhz
825 mV: +195 Mhz
850 mV: +165 Mhz
875 mV: +165 Mhz
900 mV: +165 Mhz
925 mV: +165 Mhz
950 mV: +165 Mhz
975 mV: +135 Mhz
1000 mV: +105 Mhz
1025 mV: +90 Mhz (assoluto a 40 gradi: 2055 Mhz, massima frequenza teorica di boost)
poi tutto piatto ovvero
1050 mV: +60 Mhz
1075 mV: +30 Mhz
1100 mV: +15 Mhz
e dopo nessun incremento di Mhz

Insieme a questo ho overcloccato le VRAM a +700, e ho lasciato a standard power limit e temperature limit.

Va più veloce che stock (tiene il boost stabilmente più a lungo), scalda meno e non crasha con TimeSpy, Furmark e Bright Memory Infinite RTX demo impostato a 4K + RTX Ultra High + DLSS Quality.

Le frequenze le potevo tirare tranquillamente più in alto, a 2100 Mhz di picco di boost e li reggeva, ma facendola scaldare di più e di fatto senza guadagnare niente in prestazioni (il boost medio rimaneva uguale).

Grazie per questo elenco di valori testati e sperimentati. Lo terrò come esempio di lavoro da seguire quando arriva la scheda.:mano:

Thunder-74
03-02-2021, 09:34
Ciao Ciao AMD....

Il DLSS 2.0 di NVIDIA è facilmente integrato in Unreal Engine 4.26 e offre grandi vantaggi in termini di prestazioni LINK (https://www.techpowerup.com/278059/nvidias-dlss-2-0-is-easily-integrated-into-unreal-engine-4-26-and-gives-big-performance-gains)

...Di solito, i giochi richiedono milioni di righe di codice e anche alcune piccole funzionalità non sono così facili da implementare. Oggi, grazie a Tom Looman, uno sviluppatore di giochi che lavora con Unreal Engine, abbiamo scoperto come appare il processo di integrazione di DLSS 2.0 e quanto sono grandi i vantaggi in termini di prestazioni che ne derivano.

Nel post del blog, puoi dare un'occhiata al gioco di esempio mostrato dallo sviluppatore. L'integrazione con Unreal Engine 4.26 è semplice, in quanto richiede solo che compili il tuo progetto con uno speciale ramo UE4 RTX e devi applicare il tuo AppID che puoi richiedere sul sito Web di NVIDIA. In questo momento probabilmente ti starai chiedendo come sono le prestazioni. Bene, la linea di base per il risultato erano le tecniche di campionamento TXAA utilizzate nella demo del gioco. Il DLSS 2.0 è riuscito a portare un aumento del 60-180% del frame rate, a seconda della scena. Questi sono numeri piuttosto impressionanti e dimostrano quanto bene NVIDIA sia riuscita a costruire la sua tecnologia DLSS 2.0...


https://www.techpowerup.com/img/awQfPeTMfCD84zyQ.jpg

Lucabeer
03-02-2021, 09:42
Grazie per questo elenco di valori testati e sperimentati. Lo terrò come esempio di lavoro da seguire quando arriva la scheda.:mano:

Sì, tieni comunque conto che ovviamente c'è variabilità da esemplare a esemplare.

Io con la mia se mi spingevo ancora 30 Mhz più in alto con i punti della curva di tensione, passavo TimeSpy ma poi Bright Memory mi crashava dopo due secondi. Quindi appunto magari tu sarai più fortunato, o viceversa dovrai tenerti più conservativo. Bisogna provare...

Thunder-74
03-02-2021, 09:45
Nvidia powaaaa! Amd dovrebbe chiudere il reparto gpu domani :sofico:

ma tu non avevi preso la 6800xt ?

bagnino89
03-02-2021, 09:57
Ciao Ciao AMD....

Il DLSS 2.0 di NVIDIA è facilmente integrato in Unreal Engine 4.26 e offre grandi vantaggi in termini di prestazioni LINK (https://www.techpowerup.com/278059/nvidias-dlss-2-0-is-easily-integrated-into-unreal-engine-4-26-and-gives-big-performance-gains)

...Di solito, i giochi richiedono milioni di righe di codice e anche alcune piccole funzionalità non sono così facili da implementare. Oggi, grazie a Tom Looman, uno sviluppatore di giochi che lavora con Unreal Engine, abbiamo scoperto come appare il processo di integrazione di DLSS 2.0 e quanto sono grandi i vantaggi in termini di prestazioni che ne derivano.

Nel post del blog, puoi dare un'occhiata al gioco di esempio mostrato dallo sviluppatore. L'integrazione con Unreal Engine 4.26 è semplice, in quanto richiede solo che compili il tuo progetto con uno speciale ramo UE4 RTX e devi applicare il tuo AppID che puoi richiedere sul sito Web di NVIDIA. In questo momento probabilmente ti starai chiedendo come sono le prestazioni. Bene, la linea di base per il risultato erano le tecniche di campionamento TXAA utilizzate nella demo del gioco. Il DLSS 2.0 è riuscito a portare un aumento del 60-180% del frame rate, a seconda della scena. Questi sono numeri piuttosto impressionanti e dimostrano quanto bene NVIDIA sia riuscita a costruire la sua tecnologia DLSS 2.0...

Molto interessante.

Mallardo
03-02-2021, 10:03
Ciao Ciao AMD....

Il DLSS 2.0 di NVIDIA è facilmente integrato in Unreal Engine 4.26 e offre grandi vantaggi in termini di prestazioni
cut

Da completo ignorante in termini di programmazione, ci possiamo aspettare un'implementazione del DLSS su quasi tutti i titoli che utilizzano l'Unreal Engine in futuro?

fraussantin
03-02-2021, 10:07
Da completo ignorante in termini di programmazione, ci possiamo aspettare un'implementazione del DLSS su quasi tutti i titoli che utilizzano l'Unreal Engine in futuro?Secondo me non tutti. Ma sicuramente i più importanti.

C'è sempre il discorso allenamento , che anche se con il 2.0 non è più "dedicato" ancora non è libero come il 3.0 . Per avere una buona resa serve cmq del lavoro.


Gli ultimi 3 giochi con un dlss veramente buono sono cyberpunk , WdL e ghostrunner. Come colori e immagini non sono troppo diversi .. non penso sia un caso.

TigerTank
03-02-2021, 10:08
Da completo ignorante in termini di programmazione, ci possiamo aspettare un'implementazione del DLSS su quasi tutti i titoli che utilizzano l'Unreal Engine in futuro?

In teoria si parlava di DLSS 3.0 che sarebbe implementabile con poco in tutti i giochi che supportino il TAA.

Secondo me non tutti. Ma sicuramente i più importanti.

C'è sempre il discorso allenamento , che anche se con il 2.0 non è più "dedicato" ancora non è libero come il 3.0 . Per avere una buona resa serve cmq del lavoro.

Imho comunque la migliore feature nvidia dopo il gsync(cronologicamente parlando).

Thunder-74
03-02-2021, 10:08
Da completo ignorante in termini di programmazione, ci possiamo aspettare un'implementazione del DLSS su quasi tutti i titoli che utilizzano l'Unreal Engine in futuro?

sostanzialmente dice che è facile l'implementazione, quindi mi aspetto una più facile diffuzione su giochi Unreal Engine... bisogna vedere i titoli sviluppati in accordo con AMD se lo implementeranno :p

fraussantin
03-02-2021, 10:11
Imho comunque la migliore feature nvidia dopo il gsync(cronologicamente parlando).

Concordo in pieno.

E secondo me sarà l'unico sistema per andare un po' avanti con la grafica perchè i processi produttivi sono agli sgoccioli.

MikkiClock
03-02-2021, 10:43
Sì, tieni comunque conto che ovviamente c'è variabilità da esemplare a esemplare.

Io con la mia se mi spingevo ancora 30 Mhz più in alto con i punti della curva di tensione, passavo TimeSpy ma poi Bright Memory mi crashava dopo due secondi. Quindi appunto magari tu sarai più fortunato, o viceversa dovrai tenerti più conservativo. Bisogna provare...

Ovviamente la lotteria del silicio è da considerare... Comunque grazie per le info. :D

Cutter90
03-02-2021, 11:44
Ciao Ciao AMD....

Il DLSS 2.0 di NVIDIA è facilmente integrato in Unreal Engine 4.26 e offre grandi vantaggi in termini di prestazioni LINK (https://www.techpowerup.com/278059/nvidias-dlss-2-0-is-easily-integrated-into-unreal-engine-4-26-and-gives-big-performance-gains)

...Di solito, i giochi richiedono milioni di righe di codice e anche alcune piccole funzionalità non sono così facili da implementare. Oggi, grazie a Tom Looman, uno sviluppatore di giochi che lavora con Unreal Engine, abbiamo scoperto come appare il processo di integrazione di DLSS 2.0 e quanto sono grandi i vantaggi in termini di prestazioni che ne derivano.

Nel post del blog, puoi dare un'occhiata al gioco di esempio mostrato dallo sviluppatore. L'integrazione con Unreal Engine 4.26 è semplice, in quanto richiede solo che compili il tuo progetto con uno speciale ramo UE4 RTX e devi applicare il tuo AppID che puoi richiedere sul sito Web di NVIDIA. In questo momento probabilmente ti starai chiedendo come sono le prestazioni. Bene, la linea di base per il risultato erano le tecniche di campionamento TXAA utilizzate nella demo del gioco. Il DLSS 2.0 è riuscito a portare un aumento del 60-180% del frame rate, a seconda della scena. Questi sono numeri piuttosto impressionanti e dimostrano quanto bene NVIDIA sia riuscita a costruire la sua tecnologia DLSS 2.0...


https://www.techpowerup.com/img/awQfPeTMfCD84zyQ.jpg

Beh, questa è una notizia davvero ottima!

Crysis90
03-02-2021, 12:09
Il DLSS 2.0 è riuscito a portare un aumento del 60-180% del frame rate, a seconda della scena.

Insomma, un pò come il SAM di AMD.

:asd: :asd:

Cutter90
03-02-2021, 12:40
Insomma, un pò come il SAM di AMD.

:asd: :asd:

Il sam non è di amd. Arriverà anche su nvidia quando si decideranno a fare l'aggiornamento delle schede nvidia da quel che so io

gabmamb
03-02-2021, 12:59
Potrà essere utile fare confronti con la mia Tuf e con quella di gabmamb ;)

La mia è la versione OC ma credo che nella pratica non cambi molto.
Ad ora ho solo messo gli ultimi driver nvidia e aggiornato il bios (solo sul profilo performance), per i test di undervolt mi sarebbe piaciuto prima avere anche tutte le ventole installate per il giusto airflow (e sono passati 20 giorni dall'ordine delle noctua :fagiano: ).

anche la mia è oc;)

gabmamb
03-02-2021, 13:01
L'ultima cosa poi mi taccio. Ho scaricato un bios update RTX3070_V1 di dicembre qual'è il numero di versione? eventualmente prima di flashare lo controllo, va fatto sul bios "performance" giusto? Altra cosa, su A.B. come è lo slider del PL?

verifica con gpu-z; il mio recita: 94.04.3A.40.2B se vai in Advance/Nvidia Bios 94.04.3A.00.AS08
NB: io ho dovuto utilizzare un sostegno per il peso della VGA;)

gabmamb
03-02-2021, 13:05
Anche la mia, è la ASUS GeForce RTX 3070 TUF Gaming OC
Sarà un piacere confrontare i bench e e le prestazioni.;) Per l'undervolt è valida la mini guida postata ad altro utente qualche pagina fa? Devo mettere armoury crate per forza data la M.B. in firma, o me la cavo con l' ultima vers. di Aura Synch? Crate lo odio!:huh:

Ci sono anch'io con la tuf oc 3070:O

Potrà essere utile fare confronti con la mia Tuf e con quella di gabmamb ;)

La mia è la versione OC ma credo che nella pratica non cambi molto.
Ad ora ho solo messo gli ultimi driver nvidia e aggiornato il bios (solo sul profilo performance), per i test di undervolt mi sarebbe piaciuto prima avere anche tutte le ventole installate per il giusto airflow (e sono passati 20 giorni dall'ordine delle noctua :fagiano: ).

https://i.ibb.co/syms8sv/timespy-461-09.jpg

default+curva ventole+461.09

Lucabeer
03-02-2021, 13:09
default+curva ventole+461.09

Io con le impostazioni di downvolting che avevo postato un paio di pagine fa, e i driver 461.40, ho ottenuto sulla 3070 Tuf OC un graphics score di 14294. Direi che comunque siamo lì!

PS La mia CPU è una i6700K overcloccata a 4.4

gabmamb
03-02-2021, 13:10
Stessa scheda, e alla fine mi sono tenuto su questi valori di downvolting:

800 mV: +210 Mhz
825 mV: +195 Mhz
850 mV: +165 Mhz
875 mV: +165 Mhz
900 mV: +165 Mhz
925 mV: +165 Mhz
950 mV: +165 Mhz
975 mV: +135 Mhz
1000 mV: +105 Mhz
1025 mV: +90 Mhz (assoluto a 40 gradi: 2055 Mhz, massima frequenza teorica di boost)
poi tutto piatto ovvero
1050 mV: +60 Mhz
1075 mV: +30 Mhz
1100 mV: +15 Mhz
e dopo nessun incremento di Mhz

Insieme a questo ho overcloccato le VRAM a +700, e ho lasciato a standard power limit e temperature limit.

Va più veloce che stock (tiene il boost stabilmente più a lungo), scalda meno e non crasha con TimeSpy, Furmark e Bright Memory Infinite RTX demo impostato a 4K + RTX Ultra High + DLSS Quality.

Le frequenze le potevo tirare tranquillamente più in alto, a 2100 Mhz di picco di boost e li reggeva, ma facendola scaldare di più e di fatto senza guadagnare niente in prestazioni (il boost medio rimaneva uguale).

dove ti eri nascosto?:mbe:
mi metto a testare....;)
che procedura hai usato?
1. abbassare curva, se si di quanto?
2. alzare i mhz in corrispondenza del voltaggio ma fino a che valore?
3. CTRL+L?

Lucabeer
03-02-2021, 13:12
dove ti eri nascosto?:mbe:

:D :D :D
Sono iscritto da anni, ma non frequento molto i forum. Recentemente mi è venuta la smanettite dopo aver cambiato scheda, ed eccomi qua...

Crysis90
03-02-2021, 13:18
Il sam non è di amd.

Il SAM è di AMD.
Lo hanno presentato come una feature specifica delle piattaforme AMD, CPU serie 5XXX + GPU serie 6XXX.

E' il Resizable Bar che è open source, o meglio, che non è stato inventato nè da AMD nè da NVidia.

Lucabeer
03-02-2021, 13:20
che procedura hai usato?
1. abbassare curva, se si di quanto?
2. alzare i mhz in corrispondenza del voltaggio ma fino a che valore?
3. CTRL+L?

Procedura usata, questa:
https://hardforum.com/threads/rtx-3000-series-undervolt-discussion.2003050/
ma senza ridurre il power limit. Il mio scopo non era limitare i consumi in assoluto, ma ottimizzare i consumi a parità di prestazioni (e anzi, pure guadagnando qualcosa con consumi però inferiori allo stock).

Nessun CTRL+L, semplicemente diversi tentativi partendo da 150 di incremento. Fino a che valore? La curva originale spianava a 2040, io mi sono limitato a innalzare a 2055 (ma si poteva ancora salire). In pratica, nella tabella che ho postato, l'ultimo valore a cui ho messo un incremento (15 Mhz) è quello a 1100 mV. Per voltaggi più alti non ho toccato niente.

Cutter90
03-02-2021, 13:34
Il SAM è di AMD.
Lo hanno presentato come una feature specifica delle piattaforme AMD, CPU serie 5XXX + GPU serie 6XXX.

E' il Resizable Bar che è open source, o meglio, che non è stato inventato nè da AMD nè da NVidia.

Che è la stessa cosa, in ogni caso...

F4610T.
03-02-2021, 14:01
Salve ragazzi qualcuno può confermare che è nella norma con scheda stock?
Time Spy -Graphics score 19881 Cpu score 13234 Great 18488
grazie

FroZen
03-02-2021, 14:04
Da completo ignorante in termini di programmazione, ci possiamo aspettare un'implementazione del DLSS su quasi tutti i titoli che utilizzano l'Unreal Engine in futuro?

:Puke: :Puke: :Puke: :Puke:

FroZen
03-02-2021, 14:08
Insomma, un pò come il SAM di AMD.

:asd: :asd:

ridi ridi che la mamma ha fatto gli gnocchi

se non era per amd nel 2021 avevate schede 24gb di vram che venivano farcite dalla CPU a colpi di 256mb alla volta :O

scommettiamo che dopo il gsync pure il DLSS verrà fagocitato dalla corrispettiva tencologia open source su cui punterà AMD (e Intel)? :O

Nemesis8719
03-02-2021, 14:14
default+curva ventole+461.09

Io con le impostazioni di downvolting che avevo postato un paio di pagine fa, e i driver 461.40, ho ottenuto sulla 3070 Tuf OC un graphics score di 14294. Direi che comunque siamo lì!

PS La mia CPU è una i6700K overcloccata a 4.4
Ho smantellato la 3080 decisamente deludente e rimesso su la 3070 nel pc principale, sto valutando se fare il reso(ennesimo:doh: )

Comunque, la mia tuf oc 3070 a stock:
https://i.ibb.co/Dr79P1H/3070-nooc.jpg (https://ibb.co/Vwvg0Lc)
Con oc +207core + 2250 sulle memorie:
https://i.ibb.co/vL04j3c/3070.jpg (https://ibb.co/ygHFQ6N)

fraussantin
03-02-2021, 14:15
ridi ridi che la mamma ha fatto gli gnocchi

se non era per amd nel 2021 avevate schede 24gb di vram che venivano farcite dalla CPU a colpi di 256mb alla volta :O

scommettiamo che dopo il gsync pure il DLSS verrà fagocitato dalla corrispettiva tencologia open source su cui punterà AMD (e Intel)? :O

Probabile , anche se immagino che ad Nvidia che investe soldi per creare tecnologie innovative vedersi fregare a questo modo faccia un po' rabbia.

Detto questo io spero che avvenga , perché un barlume di falsa concorrenza.ci ha fatto comprare qualche 3080 a 800 euro . Senza sarebbe costata 1000 a listino e ora le vedremmo volare ai prezzi dellen2080ti

Thunder-74
03-02-2021, 14:19
Ho smantellato la 3080 decisamente deludente e rimesso su la 3070 nel pc principale, sto valutando se fare il reso(ennesimo:doh: )

Comunque, la mia tuf oc 3070 a stock:
https://i.ibb.co/Dr79P1H/3070-nooc.jpg (https://ibb.co/Vwvg0Lc)
Con oc +207core + 2250 sulle memorie:
https://i.ibb.co/vL04j3c/3070.jpg (https://ibb.co/ygHFQ6N)

mi dici in cosa sei deluso della 3080?

comunque sta 3070 la voglio... fammi un prezzo!!!!! :D

gabmamb
03-02-2021, 14:23
Ho smantellato la 3080 decisamente deludente e rimesso su la 3070 nel pc principale, sto valutando se fare il reso(ennesimo:doh: )

Comunque, la mia tuf oc 3070 a stock:

Con oc +207core + 2250 sulle memorie:


perchè? che 3080 è?

Cutter90
03-02-2021, 14:28
Salve ragazzi qualcuno può confermare che è nella norma con scheda stock?
Time Spy -Graphics score 19881 Cpu score 13234 Great 18488
grazie

Ciao! si si fai esattamente quanto facevo con l'evga ftw 3090 stock. Ci siamo. Vediamo quando sali con l'oc :D

Nemesis8719
03-02-2021, 14:29
mi dici in cosa sei deluso della 3080?

comunque sta 3070 la voglio... fammi un prezzo!!!!! :D
Parlando della strix oc 3080 tra tutte le schede che ho avuto è l'unica che ogni tanto mi crasha con frequenza stock 1905, già con overclock a 1935(tramite preset oc su programma asus tweak II) crasha spesso, ho provato con driver diversi ma niente, pensavo fossero le memorie come capitato ad altri ma anche disabilitando xmp non cambia nulla. Sinceramente mi aspettavo di meglio, tutto qua:rolleyes:

Thunder-74
03-02-2021, 14:40
Parlando della strix oc 3080 tra tutte le schede che ho avuto è l'unica che ogni tanto mi crasha con frequenza stock 1905, già con overclock a 1935(tramite preset oc su programma asus tweak II) crasha spesso, ho provato con driver diversi ma niente, pensavo fossero le memorie come capitato ad altri ma anche disabilitando xmp non cambia nulla. Sinceramente mi aspettavo di meglio, tutto qua:rolleyes:

nooooooo mi dispiace... la legge del Karma.. una ti occa a bestia e una non regge il suo...

ultima prova.... dai un po' più di voltaggio a VCCIO e VCCSA ... no so quanto stai, ma possono essere causa di crash to Desktop ;)

Nemesis8719
03-02-2021, 14:47
nooooooo mi dispiace... la legge del Karma.. una ti occa a bestia e una non regge il suo...

ultima prova.... dai un po' più di voltaggio a VCCIO e VCCSA ... no so quanto stai, ma possono essere causa di crash to Desktop ;)
Si mi sa che è proprio un modello sfigato. Comunque appena la rimonto ci provo:) ultima chance:rolleyes:

Oggi mi diverto con la 3070:asd:

Ashran
03-02-2021, 15:01
Help!

Ho un dubbio per il mio OC della TUF 3090.

Date un'occhiata a questi risultati.
https://www.3dmark.com/compare/spy/17194212/spy/18023623#

Quello di sinistra, più vecchio, in cui avevo usato l'applicazione Asus, facendo un OC automatico, restituisce uno score grafico superiore. Per quella di destra invece ho usato Afterburner configurando la curva come indicato da un utente e boostando anche le ram.

Nota: il risultato di destra usa i driver più recenti.

Secondo voi come é possibile che con afterburner e valori di OC più spunti abbia avuto un graphic score più basso?

Dato che sono un nabbo ... che sto sbagliando? :D

ninja750
03-02-2021, 15:18
3070 spedita. Spero mi arrivi domani ma più probabile venerdì.

come/dove l'hai trovata? con quale alert?

Thunder-74
03-02-2021, 15:49
Help!

Ho un dubbio per il mio OC della TUF 3090.

Date un'occhiata a questi risultati.
https://www.3dmark.com/compare/spy/17194212/spy/18023623#

Quello di sinistra, più vecchio, in cui avevo usato l'applicazione Asus, facendo un OC automatico, restituisce uno score grafico superiore. Per quella di destra invece ho usato Afterburner configurando la curva come indicato da un utente e boostando anche le ram.

Nota: il risultato di destra usa i driver più recenti.

Secondo voi come é possibile che con afterburner e valori di OC più spunti abbia avuto un graphic score più basso?

Dato che sono un nabbo ... che sto sbagliando? :D

le ram non sono accate in nessuna delle due condizioni. Il fatto è che il tuo oc di destra , anche se più alto (2040 Vs 1980) , si scontra con il PL che ti fa tagliare le freq di brutto.. difatti hai una freq. media molto vicina ...

https://i.imgur.com/RZbx4bw.jpg


le differenze di punteggio potrebbero essere date da programmi in BG aperti che prima non avevi.

Ashran
03-02-2021, 15:51
le differenze di punteggio potrebbero essere date da programmi in BG aperti che prima non avevi.

Grazie, gentilissimo. Proverò valori meno spinti e controllerò di non avere nulla in BG attivo. Grazie!

Thunder-74
03-02-2021, 15:58
Grazie, gentilissimo. Proverò valori meno spinti e controllerò di non avere nulla in BG attivo. Grazie!

nel tuo caso potresti ottenere più performances facendo undervolt... trovando un punto di equilibrio tra freq./voltaggio fino ad arrivare al limite del PL.

Per dire, se riesci a fare una curva di 1900mhz, già otterresti di più che non occare a 2040.

Ipotizzo che tu abbia un PL max da 350W, prova a creare una curva da 1900 con 0,975v

Cutter90
03-02-2021, 16:06
Help!

Ho un dubbio per il mio OC della TUF 3090.

Date un'occhiata a questi risultati.
https://www.3dmark.com/compare/spy/17194212/spy/18023623#

Quello di sinistra, più vecchio, in cui avevo usato l'applicazione Asus, facendo un OC automatico, restituisce uno score grafico superiore. Per quella di destra invece ho usato Afterburner configurando la curva come indicato da un utente e boostando anche le ram.

Nota: il risultato di destra usa i driver più recenti.

Secondo voi come é possibile che con afterburner e valori di OC più spunti abbia avuto un graphic score più basso?

Dato che sono un nabbo ... che sto sbagliando? :D

Beh, in realtà se vuoi andare su con lo score "fare una curva" in teoria non occorre. Basta dare su al core a step di 15 e alle ram

Ashran
03-02-2021, 16:13
Beh, in realtà se vuoi andare su con lo score "fare una curva" in teoria non occorre.

Beh lo score non mi interessa ... cioé voglio sfruttare al massimo la GPU quando gioco.

Crysis90
03-02-2021, 16:19
se non era per amd

E va beh, questo commento fa ridere già così.

:asd:

Ti ricordo che AMD è tornata competitiva quest'anno, negli ultimi 4 anni proponeva prodotti penosi (lato GPU).

"Se non era per AMD"...

:sbonk: :sbonk:

SAM a parte, AMD non fa altro che scopiazzare NVidia in tutto e per tutto. :rolleyes:

FroZen
03-02-2021, 16:42
Ah che strano, cambi argomento..... :asd: e vabbè ..... mi metti a confronto resizable bar (feature PCIEx 3.0 in su) con una tecnica proprietaria di SS via IA..... :asd: eddai su...... :rolleyes: non siamo su reddit

LucaZPF
03-02-2021, 17:34
Ciao a tutti,
ho preso una Zotac Trinity 3090, il mio PC è quello in firma ma ho un dubbio sull'alimentatore. Dubito riesca a farci stare il SX800 che è SFX-L e la 3090, solo che il Corsair SF750 che è SFX non lo trovo da nessuna parte e l'altro alimentatore che ho a disposizione è una SF600, dite che regge quello da 600W?

Markus Lux
03-02-2021, 17:49
Ciao a tutti,
ho preso una Zotac Trinity 3090, il mio PC è quello in firma ma ho un dubbio sull'alimentatore. Dubito riesca a farci stare il SX800 che è SFX-L e la 3090, solo che il Corsair SF750 che è SFX non lo trovo da nessuna parte e l'altro alimentatore che ho a disposizione è una SF600, dite che regge quello da 600W?


Con quello da 600w direi di no.


Inviato dal mio iPhone 12 Pro Max utilizzando Tapatalk

F4610T.
03-02-2021, 17:50
Ciao! si si fai esattamente quanto facevo con l'evga ftw 3090 stock. Ci siamo. Vediamo quando sali con l'oc :D

appena arriva wb e bp la provo in oc 😜

mikes97
03-02-2021, 17:53
Ciao a tutti,
ho preso una Zotac Trinity 3090, il mio PC è quello in firma ma ho un dubbio sull'alimentatore. Dubito riesca a farci stare il SX800 che è SFX-L e la 3090, solo che il Corsair SF750 che è SFX non lo trovo da nessuna parte e l'altro alimentatore che ho a disposizione è una SF600, dite che regge quello da 600W?
Guarda dal sito zotac dicono 750w per la 3090 e 650w per la 3070.
Io sto usando quest'ultima con un sf450 e per il momento nessun riavvio.
Se ho capito bene hai già il 600, a questo punto prova e in caso fai un leggero undervolt con cui un 50w li risparmi sicuro secondo me. Ho letto in giro che le 3080/3090 tendono ad avere picchi che possono mandare in modalità protezione gli alimentatori, quindi il problema è quello principalmente.

Crysis90
03-02-2021, 17:58
Ah che strano, cambi argomento....

No, semplicemente adeguo le mie risposte al tipo di utente a cui devo rispondere. :O

LucaZPF
03-02-2021, 18:21
Grazie per le risposte.
La prima scelta rimane ovviamente quello da 800W. Se fisicamente non ci sta per via della lunghezza della 3090, mi tocca provare il 600, anche se non mi fa stare tranquillo. Ho il G9 della Samsung come monitor, da 49 e mi sa che anche la 3090 dovra' trottare per reggere i 240Hz

Iceman69
03-02-2021, 18:35
Grazie per le risposte.
La prima scelta rimane ovviamente quello da 800W. Se fisicamente non ci sta per via della lunghezza della 3090, mi tocca provare il 600, anche se non mi fa stare tranquillo. Ho il G9 della Samsung come monitor, da 49 e mi sa che anche la 3090 dovra' trottare per reggere i 240Hz

Con il 600 non ci stai dentro di sicuro, ieri durante i test la mia ha superato di slancio i 600w e un margine devi tenertelo, minimo un 850w si ottima qualità (tipo Seasonic) o un 1000w, anche in un'ottica di futuri upgrade...

Ashran
03-02-2021, 19:13
Piccolo update per aggiornare chi mi ha pazientemente aiutato.

Ho semplicemente aumentato di 160 il core e 500 le memorie e ho ottenuto questo risultato. Non ho toccato la curva.

https://www.3dmark.com/spy/18031657

Thunder-74
03-02-2021, 19:29
Piccolo update per aggiornare chi mi ha pazientemente aiutato.

Ho semplicemente aumentato di 160 il core e 500 le memorie e ho ottenuto questo risultato. Non ho toccato la curva.

https://www.3dmark.com/spy/18031657

Ripeto , non guadagnerai ma molto a tirare le freq se tanto il consumo è limitato dal PL...

Guarda che tonfo... parti a 2100 e hai una freq. media di circa 210mhz in meno. Vuol dire che hai valori anche inferiori di 1891...

https://i.imgur.com/98HoND6.jpg


Capisci da te che avresti più FPS se il valore medio ottenuto fosse maggiore di 1891mhz...

e questo lo ottieni solamente ottimizzando i consumi restando sotto ai 350W (se questo è il tuo limite di PL)

Questo potrebbe aiutarti a capire. E' su un bench, quindi non è sempre così, ma un'indicazione te le da.

consumi in base al voltaggio/freq di una 3090 sotto heaven.


https://uploads.tapatalk-cdn.com/20201115/f256046bcf82e1cd4f53ba00bc6acf34.jpg

Ashran
03-02-2021, 19:36
Thunder, grazie mille.

Non ti "arrabbiare" se ti faccio ripetere le cose, sto cercando di capire testando. Domani in giornata riprovo facendo la curva come indichi tu. Grazie ancora della pazienza e della "lezione". :)

Thunder-74
03-02-2021, 19:50
Thunder, grazie mille.

Non ti "arrabbiare" se ti faccio ripetere le cose, sto cercando di capire testando. Domani in giornata riprovo facendo la curva come indichi tu. Grazie ancora della pazienza e della "lezione". :)

no assolutamente, non mi arrabbio, è un piacere aiutare :)
ho scritto velocemente, forse sono sembrato brusco :fagiano:

Non lo detto, ma PL su Afterburner mettilo sempre al max. ;)

MikkiClock
03-02-2021, 20:03
verifica con gpu-z; il mio recita: 94.04.3A.40.2B se vai in Advance/Nvidia Bios 94.04.3A.00.AS08
NB: io ho dovuto utilizzare un sostegno per il peso della VGA;)

Grazie gabmamb prima di flashare lo controllo vedi mai che non arrivi aggiornata :fagiano:

mattxx88
03-02-2021, 20:05
Beh lo score non mi interessa ... cioé voglio sfruttare al massimo la GPU quando gioco.

oc con curva da clock reali più bassi che occando via slider

da qui risultati inferiori nei numeretti dei bench, l'ho gia detto qualche settimana fa, se vuoi toglierti lo sfizio di verificare con le tue mani installa HWinfo e metti in OSD la voce "effective clock"

https://i.ibb.co/n0tDvvs/effective.png (https://ibb.co/DbT7yyD)

MikkiClock
03-02-2021, 20:06
Procedura usata, questa:
https://hardforum.com/threads/rtx-3000-series-undervolt-discussion.2003050/
ma senza ridurre il power limit. Il mio scopo non era limitare i consumi in assoluto, ma ottimizzare i consumi a parità di prestazioni (e anzi, pure guadagnando qualcosa con consumi però inferiori allo stock).

Nessun CTRL+L, semplicemente diversi tentativi partendo da 150 di incremento. Fino a che valore? La curva originale spianava a 2040, io mi sono limitato a innalzare a 2055 (ma si poteva ancora salire). In pratica, nella tabella che ho postato, l'ultimo valore a cui ho messo un incremento (15 Mhz) è quello a 1100 mV. Per voltaggi più alti non ho toccato niente.

Ottima guida Lucabeer Appena arriva mi metto sotto, spero arrivi in settimana risulta sul sito del corriere spedita lunedi dalla Germania, da domani in avanti ogni giorno è buono :sperem:

beatl
03-02-2021, 20:28
Ripeto , non guadagnerai ma molto a tirare le freq se tanto il consumo è limitato dal PL...

Guarda che tonfo... parti a 2100 e hai una freq. media di circa 210mhz in meno. Vuol dire che hai valori anche inferiori di 1891...

https://i.imgur.com/98HoND6.jpg


Capisci da te che avresti più FPS se il valore medio ottenuto fosse maggiore di 1891mhz...

e questo lo ottieni solamente ottimizzando i consumi restando sotto ai 350W (se questo è il tuo limite di PL)

Questo potrebbe aiutarti a capire. E' su un bench, quindi non è sempre così, ma un'indicazione te le da.

consumi in base al voltaggio/freq di una 3090 sotto heaven.


https://uploads.tapatalk-cdn.com/20201115/f256046bcf82e1cd4f53ba00bc6acf34.jpg

Thunder, grazie mille.

Non ti "arrabbiare" se ti faccio ripetere le cose, sto cercando di capire testando. Domani in giornata riprovo facendo la curva come indichi tu. Grazie ancora della pazienza e della "lezione". :)


Anche secondo me trovare frequenza e mV adatti al proprio chip permettono di sfruttarlo al meglio .. io odio sto boost 3.. voglio frequenze granitiche e solo con un po' di undervolt (e tanti test in game) si arriva al risultato sperato

Ashran
03-02-2021, 20:58
Doppio post scusate, non so cosa ho combinato. :/

Ashran
03-02-2021, 20:59
Non lo detto, ma PL su Afterburner mettilo sempre al max. ;)

Fatta nuova prova con 900 - 1950
https://www.3dmark.com/spy/18036034

Sulle memorie un +200.
Domani mattina provo 900 - 1900 per vedere cosa cambia.

Per le memorie come mi devo regolare per i valori?

Lucabeer
04-02-2021, 06:17
Ottima guida Lucabeer Appena arriva mi metto sotto, spero arrivi in settimana risulta sul sito del corriere spedita lunedi dalla Germania, da domani in avanti ogni giorno è buono :sperem:

Mi raccomando, usa Bright Memory Infinite sparato al massimo e in loop per testare la stabilità. Molta gente vanta undervolt da brivido ma usa solo TimeSpy, e poi si trova i giochi che ogni tanto crashano a random senza sapere perchè. TimeSpy è quasi "leggero", tollera undervolt anche aggressivi perchè pur spingendo molto il carico in watt non va a stimolare anche le parti del chip che si occupano di RTX e DLSS (i tensor core).

Bright Memory Infinite RTX Demo no, a 4K + Very High + Performance crasha senza pietà al desktop nel giro di pochi minuti al minimo accenno di undervolt instabile. Se BMI riesce a girare 10 volte di fila senza crashare, con quelle impostazioni, allora per me l'undervolt è garantito stabile.

gexxx
04-02-2021, 07:00
Ho smantellato la 3080 decisamente deludente e rimesso su la 3070 nel pc principale, sto valutando se fare il reso(ennesimo:doh: )

Beh se non mi fai un prezzo da strozzo la prendo io la 3080.
Non mi interessa l'overclock.
Contattami.

Ciao

Thunder-74
04-02-2021, 07:30
Fatta nuova prova con 900 - 1950
https://www.3dmark.com/spy/18036034

Sulle memorie un +200.
Domani mattina provo 900 - 1900 per vedere cosa cambia.

Per le memorie come mi devo regolare per i valori?

discorso memorie, ti consiglierei di non applicare nessun OC, perché in game non danno guadagno e già di loro tendono a scaldare, soprattutto sulla 3090 visto i chip su entrambi i lati del PCB.

Cutter90
04-02-2021, 09:16
discorso memorie, ti consiglierei di non applicare nessun OC, perché in game non danno guadagno e già di loro tendono a scaldare, soprattutto sulla 3090 visto i chip su entrambi i lati del PCB.


Perdonami ma ho dimostrato sia che l oc delle memorie fa guadagnare fps (pochi o tanti è soggettivo), sia che in oc oppure no la temperatura rilevata di HWINFO non cambia nemmeno di 1 grado...

eternal346
04-02-2021, 10:41
https://i.postimg.cc/S2w9Z3BW/Superposition-Benchmark-v1-1-9535-1612303971.png (https://postimg.cc/S2w9Z3BW)
https://i.postimg.cc/wRRGZ1w7/testgpu-140-1200ts.jpg (https://postimg.cc/wRRGZ1w7)
https://i.postimg.cc/mhC1LXx5/testgpu-140-1200.jpg (https://postimg.cc/mhC1LXx5)

https://i.postimg.cc/689ML4LB/unigineh-140-1200.jpg (https://postimg.cc/JtF8Fmdw)
https://i.postimg.cc/JtF8Fmdw/ventoleaft.jpg

Configurazione:

Silverstone Strider 750W 80 Plus Platinum
MSI B550 Tomahawk
AMD Ryzen 5 5600x@4825mhz pbo -25
Noctua NH-U12A
4x8gb DDR4 Patriot Viper Steel 3400mhz@3800mhz 16-19-20-38

VGA: Palit RTX 3070 GamingPro OC 8GB

+140mhz sul core e +1200mhz sulle memorie, stabile sia in game che durante i bench, ho solo alzato il power limit ed il temp limit senza toccare il voltaggio. Temperature variano dai 55 ai 65 gradi.

Thunder-74
04-02-2021, 11:16
Perdonami ma ho dimostrato sia che l oc delle memorie fa guadagnare fps (pochi o tanti è soggettivo), sia che in oc oppure no la temperatura rilevata di HWINFO non cambia nemmeno di 1 grado...

diciamo che, meglio monitorare la propria scheda. ci sono stati casi di 102 gradi sulla Vram e che il guadagno di 1-2 fps non giustificano un eventuale rischio, dato che l'esperienza di gioco è la medesima. La penso così, poi ovvio che uno fa quello che più crede giusto ;)

bagnino89
04-02-2021, 11:26
Mi raccomando, usa Bright Memory Infinite sparato al massimo e in loop per testare la stabilità. Molta gente vanta undervolt da brivido ma usa solo TimeSpy, e poi si trova i giochi che ogni tanto crashano a random senza sapere perchè. TimeSpy è quasi "leggero", tollera undervolt anche aggressivi perchè pur spingendo molto il carico in watt non va a stimolare anche le parti del chip che si occupano di RTX e DLSS (i tensor core).

Bright Memory Infinite RTX Demo no, a 4K + Very High + Performance crasha senza pietà al desktop nel giro di pochi minuti al minimo accenno di undervolt instabile. Se BMI riesce a girare 10 volte di fila senza crashare, con quelle impostazioni, allora per me l'undervolt è garantito stabile.

Quoto sugli undervolt da brivido, ma ho trovato qualcosa di ancora più sensibile di Bright Memory: Control... BM mi regge anche undervolt abbastanza spinti, mentre Control è davvero molto sensibile. Peccato che sia più difficile replicare una condizione di instabilità, a volte va liscio per ore, a volte crasha dopo poco. Però è veramente molto sensibile ad undervolt/OC...

diciamo che, meglio monitorare la propria scheda. ci sono stati casi di 102 gradi sulla Vram e che il guadagno di 1-2 fps non giustificano un eventuale rischio, dato che l'esperienza di gioco è la medesima. La penso così, poi ovvio che uno fa quello che più crede giusto ;)

Quoto, anche perché MSI AB è in continuo divenire, e meglio non fidarsi troppo dei sensori.

Tra l'altro ho la sensazione che sia ancora abbastanza acerbo per le Ampere.

Comunque avevi ragione con Control, veramente molto sensibile ad undervolt/OC. Mi sa che anche Cyberpunk potrebbe essere un buon test.

Lucabeer
04-02-2021, 11:32
Quoto sugli undervolt da brivido, ma ho trovato qualcosa di ancora più sensibile di Bright Memory: Control... BM mi regge anche undervolt abbastanza spinti, mentre Control è davvero molto sensibile. Peccato che sia più difficile replicare una condizione di instabilità, a volte va liscio per ore, a volte crasha dopo poco. Però è veramente molto sensibile ad undervolt/OC...



Avevo letto pareri simili su Control, effettivamente, ma non l'ho mai provato. Ce l'ho nella lista desideri di Steam e aspetto come un avvoltoio che cali di prezzo. :asd: (Le origini genovesi mi impediscono di prendere i giochi finchè non sono offerti con saldi consistenti... Oltretutto così li gioco qualche mese dopo, con i bachi più grossi già corretti)

bagnino89
04-02-2021, 11:37
Avevo letto pareri simili su Control, effettivamente, ma non l'ho mai provato. Ce l'ho nella lista desideri di Steam e aspetto come un avvoltoio che cali di prezzo. :asd: (Le origini genovesi mi impediscono di prendere i giochi finchè non sono offerti con saldi consistenti... Oltretutto così li gioco qualche mese dopo, con i bachi più grossi già corretti)

Prendilo perché è veramente stupendo, e non solo tecnicamente.

Thunder-74
04-02-2021, 11:45
Quoto sugli undervolt da brivido, ma ho trovato qualcosa di ancora più sensibile di Bright Memory: Control... BM mi regge anche undervolt abbastanza spinti, mentre Control è davvero molto sensibile. Peccato che sia più difficile replicare una condizione di instabilità, a volte va liscio per ore, a volte crasha dopo poco. Però è veramente molto sensibile ad undervolt/OC...



Quoto, anche perché MSI AB è in continuo divenire, e meglio non fidarsi troppo dei sensori.

Tra l'altro ho la sensazione che sia ancora abbastanza acerbo per le Ampere.

Comunque avevi ragione con Control, veramente molto sensibile ad undervolt/OC. Mi sa che anche Cyberpunk potrebbe essere un buon test.

si Control è veramente infame... sarà che è in RT costantemente...

Discorso temp, non so bene come avvenga la lettura della Vram da parte di HWinfo. Sarebbe interessante se qualche possessore di FTW3 , potesse vedere se ci sono discostamenti significativi con la lettura dei sensori che hanno sulla loro VGA, le sole ad oggi che permettono tale apprezzamento da Precision X

Cutter90
04-02-2021, 11:53
diciamo che, meglio monitorare la propria scheda. ci sono stati casi di 102 gradi sulla Vram e che il guadagno di 1-2 fps non giustificano un eventuale rischio, dato che l'esperienza di gioco è la medesima. La penso così, poi ovvio che uno fa quello che più crede giusto ;)

Si ma i miei 102 gradi sono dovuti al bios da 500 watt in super oc. E le fe questa tenpratura delle ram le raggionogo di "serie". Con molti meno watt a disposizione.
Ho verificato che con oc o no sulle ram la scheda fa le stesse identiche temperature, quindi non vedo perché non guadagnare quei 3 fps. Non costa nulla.
Questa è la mia esperienza nelle mie condizioni

Riguardo la stabilità ho fatto tante prove. Gli stress test non servono più. Ogni gioco sopporta un certo oc o undervolt. Ma i valori possono essere anche molto diversi.

gabmamb
04-02-2021, 12:12
Nessun allert. Sono andato sul sito di nexths e ne ho trovata una. Pagata un po' troppo (719 mortacci loro) ma non avevo voglia di sclerare mesi per finire sto mini itx.

anche io presa li a dicembre per culo a 699€:D

Thunder-74
04-02-2021, 12:13
Si ma i miei 102 gradi sono dovuti al bios da 500 watt in super oc. E le fe questa tenpratura delle ram le raggionogo di "serie". Con molti meno watt a disposizione.
Ho verificato che con oc o no sulle ram la scheda fa le stesse identiche temperature, quindi non vedo perché non guadagnare quei 3 fps. Non costa nulla.
Questa è la mia esperienza nelle mie condizioni

Riguardo la stabilità ho fatto tante prove. Gli stress test non servono più. Ogni gioco sopporta un certo oc o undervolt. Ma i valori possono essere anche molto diversi.

Ti spiego il perchè del mio consiglio che può essere del tutto opinabile. ci mancherebbe :)

1) non esiste scheda in commercio con oc sulla Vram, neanche la kingpin o la HOF Lab edition della Galax. Questo mi lascia pensare ...
2) non conosco come si comportano tutti i modelli di VGA e la bontà della loro dissipazione, oltre al fatto che a pari modello si possano avere condizioni differenti mala applicazione di un pad o serraggio dissipatore. Anche perchè se dovessi parlare per esperienza diretta sulla mia, che vi devo dire, ho temp più basse io sulle Vram, che voi sulla GPU con ventole al 100%... quindi inutile.
3) non sappiamo se le letture di Hwinfo sono corrette/affidabili
4) ho dubbi , ma non solo il solo, sul corretto funzionamento dei SW per l'oc con Ampere. Lo stesso fatto che non sempre si riesce a sfruttare l'extra Power Limit oltre al naturale 100%, mi fa pensare che non sempre gestisca come dovrebbe la scheda. Questo in passato non era mai successo.

Ultimo, ma più importante...
5) Correre rischi su un prodotto costoso e soprattutto di difficile reperibilità, unito al fatto che il vantaggio in game del solo OC sulla Vram è poca cosa, non mi porta a dire... si vai tranquillo e tienila a default con l'oc...

Tutto qui. ;)

(THE REAL) Neo
04-02-2021, 12:27
diciamo che, meglio monitorare la propria scheda. ci sono stati casi di 102 gradi sulla Vram e che il guadagno di 1-2 fps non giustificano un eventuale rischio, dato che l'esperienza di gioco è la medesima. La penso così, poi ovvio che uno fa quello che più crede giusto ;)

Neanche io,toccherei le VRam,non ne vale la pena,si và solo a far intervenire la correzione errori,e ad alzare la temperatura già alta di suo.




Discorso temp, non so bene come avvenga la lettura della Vram da parte di HWinfo. Sarebbe interessante se qualche possessore di FTW3 , potesse vedere se ci sono discostamenti significativi con la lettura dei sensori che hanno sulla loro VGA, le sole ad oggi che permettono tale apprezzamento da Precision X


Se mi ricordo,stasera confronto le temperature.



Ti spiego il perchè del mio consiglio che può essere del tutto opinabile. ci mancherebbe :)

1) non esiste scheda in commercio con oc sulla Vram, neanche la kingpin o la HOF Lab edition della Galax. Questo mi lascia pensare ...
2) non conosco come si comportano tutti i modelli di VGA e la bontà della loro dissipazione, oltre al fatto che a pari modello si possano avere condizioni differenti mala applicazione di un pad o serraggio dissipatore. Anche perchè se dovessi parlare per esperienza diretta sulla mia, che vi devo dire, ho temp più basse io sulle Vram, che voi sulla GPU con ventole al 100%... quindi inutile.
3) non sappiamo se le letture di Hwinfo sono corrette/affidabili
4) ho dubbi , ma non solo il solo, sul corretto funzionamento dei SW per l'oc con Ampere. Lo stesso fatto che non sempre si riesce a sfruttare l'extra Power Limit oltre al naturale 100%, mi fa pensare che non sempre gestisca come dovrebbe la scheda. Questo in passato non era mai successo.

Ultimo, ma più importante...
5) Correre rischi su un prodotto costoso e soprattutto di difficile reperibilità, unito al fatto che il vantaggio in game del solo OC sulla Vram è poca cosa, non mi porta a dire... si vai tranquillo e tienila a default con l'oc...

Tutto qui. ;)

Quoto.

Lucabeer
04-02-2021, 12:39
Prendilo perché è veramente stupendo, e non solo tecnicamente.

Sì, sì, entro quest'anno lo prendo... Quantum Break l'avevo giudicato un po' severamente (sarà che ho lavorato per 10 anni come recensore di videogiochi per diverse riviste, e trovo sempre qualcosa di cui lamentarmi), ma questo mi sembra meglio.

Iceman69
04-02-2021, 12:54
Ti spiego il perchè del mio consiglio che può essere del tutto opinabile. ci mancherebbe :)

1) non esiste scheda in commercio con oc sulla Vram, neanche la kingpin o la HOF Lab edition della Galax. Questo mi lascia pensare ...
2) non conosco come si comportano tutti i modelli di VGA e la bontà della loro dissipazione, oltre al fatto che a pari modello si possano avere condizioni differenti mala applicazione di un pad o serraggio dissipatore. Anche perchè se dovessi parlare per esperienza diretta sulla mia, che vi devo dire, ho temp più basse io sulle Vram, che voi sulla GPU con ventole al 100%... quindi inutile.
3) non sappiamo se le letture di Hwinfo sono corrette/affidabili
4) ho dubbi , ma non solo il solo, sul corretto funzionamento dei SW per l'oc con Ampere. Lo stesso fatto che non sempre si riesce a sfruttare l'extra Power Limit oltre al naturale 100%, mi fa pensare che non sempre gestisca come dovrebbe la scheda. Questo in passato non era mai successo.

Ultimo, ma più importante...
5) Correre rischi su un prodotto costoso e soprattutto di difficile reperibilità, unito al fatto che il vantaggio in game del solo OC sulla Vram è poca cosa, non mi porta a dire... si vai tranquillo e tienila a default con l'oc...

Tutto qui. ;)

Diciamo che sulle 3090 che sono down clockate sulle ram un piccolo overclock ci può anche stare, certo non +1500, ma un +800 sei ancora in specifica, quindi ...

Il guadagno comunque c'è.

Sul fatto calore secondo me l'overclock sulla GPU porta anche più voltaggio sulle RAM, così almeno da lettura di HWinfo, quindi a questo punto si dovrebbe tenere tutto a default, ma non è divertente...

Il tuo discorso sulle GPU costose è giusto, ma allora dovremmo tenerle tutti a default e, come detto sopra, non è divertente!

Comunque il tuo discorso è corretto, qualsiasi costruttore di HW lo sottoscriverebbe senza pensarci un attimo.

TigerTank
04-02-2021, 12:57
Presumo che su una scheda come la 3090 vadano tenute d'occhio soprattutto le vram sul retro.

Cutter90
04-02-2021, 13:21
Ti spiego il perchè del mio consiglio che può essere del tutto opinabile. ci mancherebbe :)

1) non esiste scheda in commercio con oc sulla Vram, neanche la kingpin o la HOF Lab edition della Galax. Questo mi lascia pensare ...

Se è per questo non esistono schede undervoltate ne oc di serie. Eppure da sempre si fa oc senza nessun tipo di problema

2) non conosco come si comportano tutti i modelli di VGA e la bontà della loro dissipazione, oltre al fatto che a pari modello si possano avere condizioni differenti mala applicazione di un pad o serraggio dissipatore. Anche perchè se dovessi parlare per esperienza diretta sulla mia, che vi devo dire, ho temp più basse io sulle Vram, che voi sulla GPU con ventole al 100%... quindi inutile.

Se le hai sono 2 le strade. O sei a liquido, e allora grazie tante, oppure non hai 500 watt sotto il "cofano", sempre al limite. Hai detto bene, i paragoni andrebbero fatti a parità di condizioni.

3) non sappiamo se le letture di Hwinfo sono corrette/affidabili

Se mettiamo in dubbio anche questo però, allora, qualsiasi rilevamento è da "buttare".
4) ho dubbi , ma non solo il solo, sul corretto funzionamento dei SW per l'oc con Ampere. Lo stesso fatto che non sempre si riesce a sfruttare l'extra Power Limit oltre al naturale 100%, mi fa pensare che non sempre gestisca come dovrebbe la scheda. Questo in passato non era mai successo.

Questione interessante a cui però ho già praticamente risposto verificando che i watt consumati variano da gioco a gioco. Ma dipende esclusivamente dal software su cui giriamo

Ultimo, ma più importante...
5) Correre rischi su un prodotto costoso e soprattutto di difficile reperibilità, unito al fatto che il vantaggio in game del solo OC sulla Vram è poca cosa, non mi porta a dire... si vai tranquillo e tienila a default con l'oc...

Qui non sono per nulla d'accordo. Non c'è alcun rischio. Lo abbiamo sempre fatto e sempre lo faremo. Sono tutte cose perfettamente normali. C'è gente che shunta e non ha alcun problema. I problemi che si possono avere sono di instabilità software. MAI sentito nessuno con la serie 3000 che ha rotto la scheda per il modo in cui la usava. Personalmente vedo solo dell'inutile allarmismo. Le schede hanno le protezioni, di ogni cosa. Le 3090 FE sono STOCK 105 gradi sulle ram. E dire che sia una cosa normale a questo punto, altrimenti non pensi che nvdia ci avrebbe già pensato? Se le cose si fanno per tentativi in sicurezza si guadagna. Il consiglio è : provate. Io ho verificato con comparazioni dirette che aumentare le ram NON aumenta la temperatura delle stesse. Ma nemmeno di un grado. Quando qualcuno farà prove diverse dalle mie, sarà un piacere confrontarci. Ma io penso he le prove vadano fatte con la carta e i test, non con le sensazioni, le paure o le dicerie

Tutto qui. ;)

Tengo a precisare che ci stiamo confrontando:)

Thunder-74
04-02-2021, 13:37
Tengo a precisare che ci stiamo confrontando:)

Assolutamente... :)

preciso che storicità della GDDR6x non ne abbiamo... non sappiamo alla lunga cosa possa accadere a farle lavorare con temp, in alcuni casi, prossime al TJmax .

Potrebbe essere un allarmismo eccessivo, ma il fatto che più di qualcuno sul web abbia sollevato perplessità su queste temp, mi fa desistere nel tirarle....


... poi io non sono il Messia che raduna i fedeli per divulgare il verbo :D

cut

Se mi ricordo,stasera confronto le temperature.

cut..


Grazie ;)

Jeetkundo
04-02-2021, 14:00
Se può servire ho misurato le temp delle memorie ggdr6x sulla mia scheda dopo un'oretta di gioco.

Il valore massimo registrato è 88 gradi. Ho provato Doom Eternal, Control e The Medium.

Inviato dal mio LYA-L09 utilizzando Tapatalk

Thunder-74
04-02-2021, 14:10
Riporto questo articolo di qualche tempo fa di TpUP, che mi ha fatto decidere di non fare OC sulla Vram.


Il motivo per cui la GPU GeForce RTX 3080 di NVIDIA utilizza una memoria GDDR6X da 19 Gbps e non varianti più veloci

Quando NVIDIA ha annunciato le sue GPU GeForce RTX 3080 e 3090 Ampere di nuova generazione, ha specificato che la memoria trovata nelle nuove GPU sarà la variante GDDR6X di Micron con una velocità di 19 Gbps. Tuttavia, poiché ci sono moduli GDDR6X più veloci già disponibili in una variante da 21 Gbps, tutti si chiedevano perché NVIDIA non usasse solo la memoria più veloce di Micron. Questo è esattamente ciò che anche Igor's Lab, un sito web di tecnologia, si è chiesto. Hanno deciso di condurre test con una termocamera a infrarossi che misura il calore prodotto. Per controllare la configurazione completa del test e come hanno testato tutto, puoi andare qui e leggerlo , incluso guardare il video incorporato.

I chip Micron come GDDR5, GDDR5X e GDDR6 sono classificati per la temperatura di giunzione massima (TJ Max) di 100 gradi Celsius. Si consiglia di far funzionare questi chip da 0 ° C a 95 ° C per ottenere i migliori risultati. Tuttavia, quando si tratta dei nuovi moduli GDDR6X presenti nelle nuove schede grafiche, non sono ancora presenti specifiche ufficiali disponibili al pubblico. Igor's Lab stima che possano raggiungere i 120 ° C prima che vengano danneggiati, il che significa che TJ Max dovrebbe essere 110 ° C o 105 ° C. Durante la misurazione della temperatura dei moduli GDDR6X, Igor ha scoperto che il chip più caldo funzionava a 104 ° C, il che significa che i chip funzionano abbastanza vicino al TJ Max che sono (presumibilmente) specificati. Sono le decisioni di progettazione PCB di NVIDIA che stanno portando a questo, poiché i chip più caldi funzionano accanto ai regolatori di tensione, che possono diventare piuttosto caldi da soli.

Il punto è che il calore prodotto dalla scheda è piuttosto enorme con un TGP di 320 W, il che significa che il raffreddamento è un bel problema che NVIDIA è riuscita a tenere sotto controllo, tuttavia, le decisioni di progettazione hanno comportato una possibile perdita di prestazioni. Invece di NVIDIA che utilizza i chip Micron da 21 Gbps più veloci, sono costretti a utilizzare le varianti da 19 Gbps. Non è che ci sarebbero problemi di fornitura poiché NVIDIA è l'unico cliente GDDR6X di Micron, tuttavia, la vera ragione è la gestione del calore. La velocità da un chip più lento da 19 Gbps a un chip più veloce da 21 Gbps è di più il 10%, il che significa che l'uscita di calore seguirebbe la percentuale, risultando in un TGP ancora maggiore della scheda. La conclusione tratta qui è che i chip attuali sono limitati solo dalla temperatura, poiché la scheda è piuttosto calda, ed è per questo che NVIDIA non utilizza la variante GDDR6X più veloce.

LINK (https://www.techpowerup.com/272420/the-reason-why-nvidias-geforce-rtx-3080-gpu-uses-19-gbps-gddr6x-memory-and-not-faster-variants)

Ripeto, non sappiamo quanto sia affidabile la lettura di HWinfo...

in un articolo che spiega il funzionamento delle GDDR6x e del loro sistema di rilevamento errori, ho trovato questo:


NVIDIA consiglia di non eseguire l'overclock Micron GDDR6X

Perché continuare a provare una trasmissione di errore? Per evitare crash della VRAM o GPU o crash del sistema. A velocità più elevate premiamo le memorie GDDR6X, verranno prodotti più errori e con ciò ci saranno più transazioni ritentate, che consumeranno la larghezza di banda di dette memorie GDDR6X. Questo riduce le prestazioni finali della GPU, quindi smetteremo di guadagnare punteggio o FPS, indicando che abbiamo raggiunto il limite dell'overclock senza che un singolo modulo muoia.
Come ogni cosa in questa vita, niente è al sicuro. Sebbene abbiamo EDR e CRC, NVIDIA afferma che potremmo anche non vedere artefatti sullo schermo , ma questo non significa che in ogni caso i moduli non vengano danneggiati dall'overclock, anzi, può succedere.

LINK (https://itigic.com/it/gddr6x-memory-why-it-achieves-more-speed-and-overclock/)

Cutter90
04-02-2021, 14:21
Assolutamente... :)

preciso che storicità della GDDR6x non ne abbiamo... non sappiamo alla lunga cosa possa accadere a farle lavorare con temp, in alcuni casi, prossime al TJmax .

Potrebbe essere un allarmismo eccessivo, ma il fatto che più di qualcuno sul web abbia sollevato perplessità su queste temp, mi fa desistere nel tirarle....


... poi io non sono il Messia che raduna i fedeli per divulgare il verbo :D

Guarda, le perplessità oggigiorno si tirano fuori davvero su ogni cosa :)
Detto questo ognuno farà i suoi test e le sue conclusioni

blackbamba
04-02-2021, 14:26
Si ma i miei 102 gradi sono dovuti al bios da 500 watt in super oc. E le fe questa tenpratura delle ram le raggionogo di "serie". Con molti meno watt a disposizione.
Ho verificato che con oc o no sulle ram la scheda fa le stesse identiche temperature, quindi non vedo perché non guadagnare quei 3 fps. Non costa nulla.
Questa è la mia esperienza nelle mie condizioni

Riguardo la stabilità ho fatto tante prove. Gli stress test non servono più. Ogni gioco sopporta un certo oc o undervolt. Ma i valori possono essere anche molto diversi.

Complimenti per la bestia! 500w però sono davvero tanti!:eek:

blackbamba
04-02-2021, 14:26
Si ma i miei 102 gradi sono dovuti al bios da 500 watt in super oc. E le fe questa tenpratura delle ram le raggionogo di "serie". Con molti meno watt a disposizione.
Ho verificato che con oc o no sulle ram la scheda fa le stesse identiche temperature, quindi non vedo perché non guadagnare quei 3 fps. Non costa nulla.
Questa è la mia esperienza nelle mie condizioni

Riguardo la stabilità ho fatto tante prove. Gli stress test non servono più. Ogni gioco sopporta un certo oc o undervolt. Ma i valori possono essere anche molto diversi.

Complimenti per la bestia! 500w però sono davvero tanti!:eek:

Cutter90
04-02-2021, 14:26
Riporto questo articolo di qualche tempo fa di TpUP, che mi ha fatto decidere di non fare OC sulla Vram.


Il motivo per cui la GPU GeForce RTX 3080 di NVIDIA utilizza una memoria GDDR6X da 19 Gbps e non varianti più veloci

Quando NVIDIA ha annunciato le sue GPU GeForce RTX 3080 e 3090 Ampere di nuova generazione, ha specificato che la memoria trovata nelle nuove GPU sarà la variante GDDR6X di Micron con una velocità di 19 Gbps. Tuttavia, poiché ci sono moduli GDDR6X più veloci già disponibili in una variante da 21 Gbps, tutti si chiedevano perché NVIDIA non usasse solo la memoria più veloce di Micron. Questo è esattamente ciò che anche Igor's Lab, un sito web di tecnologia, si è chiesto. Hanno deciso di condurre test con una termocamera a infrarossi che misura il calore prodotto. Per controllare la configurazione completa del test e come hanno testato tutto, puoi andare qui e leggerlo , incluso guardare il video incorporato.

I chip Micron come GDDR5, GDDR5X e GDDR6 sono classificati per la temperatura di giunzione massima (TJ Max) di 100 gradi Celsius. Si consiglia di far funzionare questi chip da 0 ° C a 95 ° C per ottenere i migliori risultati. Tuttavia, quando si tratta dei nuovi moduli GDDR6X presenti nelle nuove schede grafiche, non sono ancora presenti specifiche ufficiali disponibili al pubblico. Igor's Lab stima che possano raggiungere i 120 ° C prima che vengano danneggiati, il che significa che TJ Max dovrebbe essere 110 ° C o 105 ° C. Durante la misurazione della temperatura dei moduli GDDR6X, Igor ha scoperto che il chip più caldo funzionava a 104 ° C, il che significa che i chip funzionano abbastanza vicino al TJ Max che sono (presumibilmente) specificati. Sono le decisioni di progettazione PCB di NVIDIA che stanno portando a questo, poiché i chip più caldi funzionano accanto ai regolatori di tensione, che possono diventare piuttosto caldi da soli.

Il punto è che il calore prodotto dalla scheda è piuttosto enorme con un TGP di 320 W, il che significa che il raffreddamento è un bel problema che NVIDIA è riuscita a tenere sotto controllo, tuttavia, le decisioni di progettazione hanno comportato una possibile perdita di prestazioni. Invece di NVIDIA che utilizza i chip Micron da 21 Gbps più veloci, sono costretti a utilizzare le varianti da 19 Gbps. Non è che ci sarebbero problemi di fornitura poiché NVIDIA è l'unico cliente GDDR6X di Micron, tuttavia, la vera ragione è la gestione del calore. La velocità da un chip più lento da 19 Gbps a un chip più veloce da 21 Gbps è di più il 10%, il che significa che l'uscita di calore seguirebbe la percentuale, risultando in un TGP ancora maggiore della scheda. La conclusione tratta qui è che i chip attuali sono limitati solo dalla temperatura, poiché la scheda è piuttosto calda, ed è per questo che NVIDIA non utilizza la variante GDDR6X più veloce.

LINK (https://www.techpowerup.com/272420/the-reason-why-nvidias-geforce-rtx-3080-gpu-uses-19-gbps-gddr6x-memory-and-not-faster-variants)

Ripeto, non sappiamo quanto sia affidabile la lettura di HWinfo...

in un articolo che spiega il funzionamento delle GDDR6x e del loro sistema di rilevamento errori, ho trovato questo:


NVIDIA consiglia di non eseguire l'overclock Micron GDDR6X

Perché continuare a provare una trasmissione di errore? Per evitare crash della VRAM o GPU o crash del sistema. A velocità più elevate premiamo le memorie GDDR6X, verranno prodotti più errori e con ciò ci saranno più transazioni ritentate, che consumeranno la larghezza di banda di dette memorie GDDR6X. Questo riduce le prestazioni finali della GPU, quindi smetteremo di guadagnare punteggio o FPS, indicando che abbiamo raggiunto il limite dell'overclock senza che un singolo modulo muoia.
Come ogni cosa in questa vita, niente è al sicuro. Sebbene abbiamo EDR e CRC, NVIDIA afferma che potremmo anche non vedere artefatti sullo schermo , ma questo non significa che in ogni caso i moduli non vengano danneggiati dall'overclock, anzi, può succedere.

LINK (https://itigic.com/it/gddr6x-memory-why-it-achieves-more-speed-and-overclock/)

Lettura o no, la scheda andrà ovviamente in protezione superato il valore "safe" massimo (110 a quanto pare) e restiturà un errore o qualsiasi cosa per farla "spegnere" e abbassare le temp. Quindi non credo ci siano problemi. I miei 102 non sono 120. HW info è un software molto preciso di solito. Che sbagli ci può stare, ma se ancora non ho ricevuto nessun avviso... ma poi siamo sempre lì. le FE hanno misurato 105 gradi. E ancora, il comunicato di nvida non trova riscontro nelle mie prove. Oc sulle ram o no i gradi sono identici. C'è qualcun'altro che può fare qualche test di temperature con vram in oc o stock? Nessuno ha provato?

Cutter90
04-02-2021, 14:28
Complimenti per la bestia! 500w però sono davvero tanti!:eek:

Riesco fortunatamente a tenerli anche sui giochi, il che mi fa molto piacere. Raggiungo frequenze costanti davvero ottime, gioco a cp a 2025-2040 fissi e a Hitman a 2070, ad esempio, con utilizzo 100%
Il compromesso è il rumore, ventole sopra i 55 gradi al 100%, ma per me non è un problema dato che ho il pc lontano e le ventole della aorus non sono molto rumorose

blackbamba
04-02-2021, 14:37
Riesco fortunatamente a tenerli anche sui giochi, il che mi fa molto piacere. Raggiungo frequenze costanti davvero ottime, gioco a cp a 2025-2040 fissi e a Hitman a 2070, ad esempio, con utilizzo 100%
Il compromesso è il rumore, ventole sopra i 55 gradi al 100%, ma per me non è un problema dato che ho il pc lontano e le ventole della aorus non sono molto rumorose

Si forse potresti risolvere il problema liquidandola con un bel custom, però perderesti la bellezza della scheda così originale..

Cutter90
04-02-2021, 14:39
Si forse potresti risolvere il problema liquidandola con un bel custom, però perderesti la bellezza della scheda così originale..

Troppo sbatto e altri costi. Va bene così per adesso

amon.akira
04-02-2021, 14:57
Lettura o no, la scheda andrà ovviamente in protezione superato il valore "safe" massimo (110 a quanto pare) e restiturà un errore o qualsiasi cosa per farla "spegnere" e abbassare le temp. Quindi non credo ci siano problemi. I miei 102 non sono 120. HW info è un software molto preciso di solito. Che sbagli ci può stare, ma se ancora non ho ricevuto nessun avviso... ma poi siamo sempre lì. le FE hanno misurato 105 gradi. E ancora, il comunicato di nvida non trova riscontro nelle mie prove. Oc sulle ram o no i gradi sono identici. C'è qualcun'altro che può fare qualche test di temperature con vram in oc o stock? Nessuno ha provato?

idem con oc +500 o +750 (+800 perdo prestazioni) le temp sono uguali a senza oc in hwinfo

idle 32-36 gradi la vram, in game 76-86 max ho visto, uguale anche senza oc.

Ashran
04-02-2021, 14:58
discorso memorie, ti consiglierei di non applicare nessun OC

Ultimo aggiornamento ... per ora credo che mi fermerò con i test.

https://www.3dmark.com/compare/spy/18036034/spy/18054241/spy/18054564

Partendo da sinistra

900 - 1950 e memorie +200
900 - 1900
900 - 1950


Quale scenario mi consigliereste alla luce di questi risultati? La domanda é apparentemente banale ma dato che son novellino magari non leggo qualche dato importante (la temperatura mi pare invariata in tutti gli scenari). :D


Nota: io sto sempre lasciando il temp limit al valore di default 84°

Thunder-74
04-02-2021, 15:02
Ultimo aggiornamento ... per ora credo che mi fermerò con i test.

https://www.3dmark.com/compare/spy/18036034/spy/18054241/spy/18054564

Partendo da sinistra

900 - 1950 e memorie +200
900 - 1900
900 - 1950


Quale scenario mi consigliereste alla luce di questi risultati? La domanda é apparentemente banale ma dato che son novellino magari non leggo qualche dato importante (la temperatura mi pare invariata in tutti gli scenari). :D


Nota: io sto sempre lasciando il temp limit al valore di default 84°

la dura e cruda verità?.... quello che vuoi tanto non ti accorgeresti della differenza...

https://i.imgur.com/Lr1WBxd.jpg

blackbamba
04-02-2021, 15:02
Arrivata la 3070:

https://i.ibb.co/gyz29tb/597-D790-D-618-D-427-E-8-ED5-020-A80-B8-B39-C.jpg (https://ibb.co/7v2fCrx)
https://i.ibb.co/8McqBrx/EB62-DDE6-F41-B-4-FA2-AD98-F1-CBAC4-FE0-E4.jpg (https://ibb.co/v1YpB3d)
https://i.ibb.co/fMr87ws/CFCF6758-F35-E-4-E81-8920-A3-D1-ADF58-B5-F.jpg (https://ibb.co/K6VNHvJ)
https://i.ibb.co/gPkXSNP/7-C1-EDB30-9-E1-F-4929-9170-825-DD8-FC795-C.jpg (https://ibb.co/JyDbvVy)
https://i.ibb.co/wNFBDCK/DC604069-5-EB4-435-A-A006-EDF4-B1269419.jpg (https://ibb.co/KjpbC79)
https://i.ibb.co/8KppL4M/C3375-B38-3-F5-E-405-B-BD26-C1-F4-F4360-E6-A.jpg (https://ibb.co/2nQQ1Yq)
https://i.ibb.co/BgpHQCT/32-C76181-EBEA-4-DA1-B887-44-A168094-A85.jpg (https://ibb.co/HrSLbHG)

Domani mi ci dedico ora ho solo installato windows e i driver video.

Che configurazione hai?

amon.akira
04-02-2021, 15:02
Ultimo aggiornamento ... per ora credo che mi fermerò con i test.

https://www.3dmark.com/compare/spy/18036034/spy/18054241/spy/18054564

Partendo da sinistra

900 - 1950 e memorie +200
900 - 1900
900 - 1950


Quale scenario mi consigliereste alla luce di questi risultati? La domanda é apparentemente banale ma dato che son novellino magari non leggo qualche dato importante (la temperatura mi pare invariata in tutti gli scenari). :D


Nota: io sto sempre lasciando il temp limit al valore di default 84°

se fai 900 1950 potresti fare 1900 con meno, tipo 875 o meno prova...o una via di mezzo 875mV 1920

TigerTank
04-02-2021, 15:09
Arrivata la 3070:

Domani mi ci dedico ora ho solo installato windows e i driver video.

Bellina e piccina, perfetta per l'htpc da gaming :D

Che configurazione hai?
Ingrandisci l'ultima foto con il bios :)

SinapsiTXT
04-02-2021, 15:15
Arrivata la 3070:

-cut-

Domani mi ci dedico ora ho solo installato windows e i driver video.

Molto bella, è quasi "sprecata" come modello così bello esteticamente eppure così nascosto (non per colpa tua ovviamente :D ).

Cutter90
04-02-2021, 15:16
Che configurazione hai?

Pareri personali sull'estetica. Molto carina la Zotac. Terribile quel case e quella disposizione della componentistica. Avrai temp alle stelle

Thunder-74
04-02-2021, 15:23
Microsoft corregge il bug di Windows 10 responsabile del blocco del gioco

Microsoft corregge il bug di Windows 10 responsabile del blocco del gioco
Windows 10 presentava un bug responsabile del blocco dei giochi in modalità a schermo intero (e tablet). Il bug non è diffuso ma piuttosto limitato ad alcuni casi d'uso. Microsoft ha una patch pronta che risolverà questo dilemma, così come altre cose.

KB4598291 attualmente è un aggiornamento facoltativo. Ma comporta oltre tre dozzine di correzioni, inclusi e relativi ai problemi di gestione delle password di Windows 10 con il salvataggio della password e un problema di Alt + Tab. La patch è valida per tutte le versioni di Windows 10 2004 inclusi l'aggiornamento di maggio 2020 e l'aggiornamento di Windows 10 20H2 ottobre 2020. Tornando al titolo dell'argomento, sembra che il problema del blocco del gioco non sia molto diffuso, potresti anche non averlo notato o averlo notato tu stesso. Ma per quelli che lo fanno, questo potrebbe essere un momento di alleluia se stai cercando e cercando cosa potrebbe causare il problema.

La patch dovrebbe essere inclusa nella prossima rotazione della patch di martedì, che è la prossima settimana il 9 di questo mese. Se non puoi aspettare puoi già installarlo tramite una ricerca manuale degli aggiornamenti di Windows.

Punti salienti
Aggiorna un problema a causa del quale un dispositivo smette di rispondere quando giochi in modalità schermo intero o tablet.
Aggiorna un problema relativo all'uso di Ctrl + Caps Lock e Alt + Caps Lock per passare rispettivamente alla modalità Hiragana o Katakana dopo l'aggiornamento a Windows 10, versione 2004.
Aggiorna un problema che impedisce di aprire un documento che si trova sul desktop di Windows.
Aggiorna un problema che crea cartelle duplicate del provider di servizi cloud nel riquadro di navigazione di Esplora file.
Aggiorna un problema con alcune combinazioni di tasti speciali utilizzate negli IME DaYi, Yi e Array che potrebbero causare l'interruzione del funzionamento di un'applicazione.
Aggiorna un problema che mostra una schermata di blocco vuota dopo che un dispositivo si riattiva dalla modalità di sospensione.
Corregge le informazioni sull'ora legale storica (DST) per l'Autorità Palestinese.
Aggiorna un problema che disattiva in modo errato alcuni dispositivi Windows 10 Education dopo l'aggiornamento a Windows 10, versione 2004.
Aggiorna un problema che potrebbe causare la modifica imprevista dell'ordine Alt + Tab e il passaggio alla finestra sbagliata.
Aggiorna un problema che non mostra Estrai tutto nel menu di scelta rapida quando fai clic con il pulsante destro del mouse su un file ZIP solo in linea.

LINK (https://www.guru3d.com/news-story/microsoft-patches-windows-10-bug-that-is-responsible-for-game-freezes.html)

FroZen
04-02-2021, 15:56
Arrivata la 3070:


la scheda video fa schifo ( :Prrr: :Prrr: :Prrr: ) ma il case è proprio carino, è un silverstone rvz? ne ho uno anche io.... ci avevo messo dentro una 290 custom :asd: e le temp erano decisamente buone, ero rimasto piacevolmente sopreso e avevo dimezzato le dimensioni rispetto al precedente bitfenix mitx.....ora è a prendere polvere in attesa che ci rimetta qualcosa tra una decina d'anni quando le 7970 saranno retrogaming :stordita:

bagnino89
04-02-2021, 15:57
Asrock b460m-itx/ac, i5 10400f, 16 gb ballistix 3000mhz, nvme sabrent 512 gb.

Ottima configurazione, hai scelto una delle migliori CPU del momento come rapporto prezzo/prestazioni.

scorpion73
04-02-2021, 17:05
@Dotto Raus ma non avevi una 6800XT?

Wolf91
04-02-2021, 17:50
Certo che son strane queste RTX 3080...

Ho fatto una prova,siccome non riesco a tenere le frequenze fisse,nonostante le temp e il PL lo consentano.

Ho notato che se la Vga supera i 50 gradi tiene le frequenze impostate,se invece gira più fresca di solito gira a un -15mhz rispetto a quella fissata

Ma è un problema di Msi Afterburner,o è proprio la scheda che funziona così ??

Thunder-74
04-02-2021, 18:10
Certo che son strane queste RTX 3080...

Ho fatto una prova,siccome non riesco a tenere le frequenze fisse,nonostante le temp e il PL lo consentano.

Ho notato che se la Vga supera i 50 gradi tiene le frequenze impostate,se invece gira più fresca di solito gira a un -15mhz rispetto a quella fissata

Ma è un problema di Msi Afterburner,o è proprio la scheda che funziona così ??

è proprio la scheda.... ed è inspiegabile... come se fosse un "errore" della tabella che regola temp/freq.

Wolf91
04-02-2021, 18:44
è proprio la scheda.... ed è inspiegabile... come se fosse un "errore" della tabella che regola temp/freq.Anche perché a logica dovrebbe essere il contrario.... è proprio fastidioso.

Inviato dal mio KB2003 utilizzando Tapatalk

amon.akira
04-02-2021, 19:13
Anche perché a logica dovrebbe essere il contrario.... è proprio fastidioso.

Inviato dal mio KB2003 utilizzando Tapatalk

l ho detta sta cosa appena so uscite ste schede, paradossalmente uno ad aria a 55gradi terrà il clock piu alto di uno a liquido a 45 dove ha già 2tagli da temp che si ripristinano dopo i 50 e poi ritaglia a 60-65 -15mhz

a me sta sempre full clock ingame 2025 mal che vada 2010 :D

Wolf91
04-02-2021, 19:32
l ho detta sta cosa appena so uscite ste schede, paradossalmente uno ad aria a 55gradi terrà il clock piu alto di uno a liquido a 45 dove ha già 2tagli da temp che si ripristinano dopo i 50 e poi ritaglia a 60-65 -15mhz

a me sta sempre full clock ingame 2025 mal che vada 2010 :D

Io la tengo a 2115mhz a 1.025v se sta sotto a 50 gradi 2085-2100...ridicolo

Possibile che non ci sia un fix,perchè è paradossale

MikkiClock
04-02-2021, 19:51
Arrivata la TUF RTX 3070 OC:sofico: , la monto e inizio a lavorare sulle curve di undervolt:boxe:

amon.akira
04-02-2021, 19:56
Io la tengo a 2115mhz a 1.025v se sta sotto a 50 gradi 2085-2100...ridicolo

Possibile che non ci sia un fix,perchè è paradossale

purtroppo è cosi ma...

in teoria se il fix consistesse nel farlo alla turing a te non cambierebbe nulla ma segherebbe di piu per chi è ad aria...ci sarebbe il terzo taglio a 50 e il quarto a 60.

se il fix sarebbe eliminare del tutto i tagli sarebbero uguali ancora sia a liquido a 30gradi che ad aria a 70gradi

Nemesis8719
04-02-2021, 20:13
Alla fine ho fatto il reso della 3080 strix, il modello che mi è capitato è troppo sfigato, non me la sento ti tenerla così, random crash e oc inesistente.
Per ora mi diverto con la tuf 3070 che mi da molte più soddisfazioni, intanto cerco qualcos'altro, magari di notte qualcosa trovo :asd:

TigerTank
04-02-2021, 20:46
Certo che son strane queste RTX 3080...

Ho fatto una prova,siccome non riesco a tenere le frequenze fisse,nonostante le temp e il PL lo consentano.

Ho notato che se la Vga supera i 50 gradi tiene le frequenze impostate,se invece gira più fresca di solito gira a un -15mhz rispetto a quella fissata

Ma è un problema di Msi Afterburner,o è proprio la scheda che funziona così ??

è proprio la scheda.... ed è inspiegabile... come se fosse un "errore" della tabella che regola temp/freq.

Sarà mica un effetto collaterale delle correzioni che fecero per risolvere i famosi problemi di instabilità iniziali? Mah...

Anche i piani energetici sono cambiati, con le ultime releases di drivers le ampère hanno "normale" e "prestazioni" grazie anche al riscontro di Thunder74 dopo il post di bagnino89, mentre io con la mia Turing vedo ancora i soliti 3 (ottimale, adattivo e prestazioni).

Alla fine ho fatto il reso della 3080 strix, il modello che mi è capitato è troppo sfigato, non me la sento ti tenerla così, random crash e oc inesistente.
Per ora mi diverto con la tuf 3070 che mi da molte più soddisfazioni, intanto cerco qualcos'altro, magari di notte qualcosa trovo :asd:
Hai fatto bene...ero tentato di chiedertela ma sembrava proprio avere qualche difetto di troppo. :mc:
La tua 3070 è spettacolare.

Wolf91
04-02-2021, 20:50
Sarà mica un effetto collaterale delle correzioni che fecero per risolvere i famosi problemi di instabilità iniziali? Mah...

Anche i piani energetici sono cambiati, con le ultime releases di drivers le ampère hanno "normale" e "prestazioni" grazie anche al riscontro di Thunder74 dopo il post di bagnino89, mentre io con la mia Turing vedo ancora i soliti 3 (ottimale, adattivo e prestazioni).


Non saprei,domani faccio una ricerca sui siti esteri,per vedere se ci sono possibili fix,o almeno se qualcun altro l'ha notato

Nemesis8719
04-02-2021, 20:55
Hai fatto bene...ero tentato di chiedertela ma sembrava proprio avere qualche difetto di troppo. :mc:
La tua 3070 è spettacolare.
Una fatica incredibile per prenderla e poi la delusione...
Oggi ero quasi tentato da una 3080strix bianca dalla Francia o Germania a 1250+spese ma poi fortunatamente mi sono bloccato :asd:

Beseitfia
04-02-2021, 21:09
Alla fine ho fatto il reso della 3080 strix, il modello che mi è capitato è troppo sfigato, non me la sento ti tenerla così, random crash e oc inesistente.
Per ora mi diverto con la tuf 3070 che mi da molte più soddisfazioni, intanto cerco qualcos'altro, magari di notte qualcosa trovo :asd:

Io sinceramente ho avuto problemi con ben due rtx 3080 strix che mi sono capitate sotto mano. Una che avevo preso per me, rattling osceno alle ventole, poi resa....e una di un mio amico che me l'aveva data in prova, crash e freeze a gogo come te...Era la scheda che avrei preferito, ma dopo queste vicende sinceramente mi sono sentito di puntare su altri modelli

Nemesis8719
04-02-2021, 21:15
Io sinceramente ho avuto problemi con ben due rtx 3080 strix che mi sono capitate sotto mano. Una che avevo preso per me, rattling osceno alle ventole, poi resa....e una di un mio amico che me l'aveva data in prova, crash e freeze a gogo come te...Era la scheda che avrei preferito, ma dopo queste vicende sinceramente mi sono sentito di puntare su altri modelli
Quindi non sono il solo ad aver avuto problemi, la cosa un pò mi conforta. Comunque non è possibile avere schede da 1000euro con sti problemi :rolleyes:

Beseitfia
04-02-2021, 21:21
Quindi non sono il solo ad aver avuto problemi, la cosa un pò mi conforta. Comunque non è possibile avere schede da 1000euro con sti problemi :rolleyes:

Lasciamo perdere guarda...io la strix la puntavo da prima che annunciassero le ampere, non sapendo neanche come fosse fatta e ho cercato di prenderla in tutti i modi da settembre. Ero riuscito a prenderla finalmente con il famoso drop del 3 novembre ma amazon me l'ha annullato...Da li' in poi mi sono messo sotto coi bot e ne ho prese due, una per me e una per un mio amico, che mi hanno spedito ma erano etrambe fallate e rese (quella del mio amico ha dato problemi dopo circa una settimana). Poi ho preso una tuf (gpu fantastica) e la suprim x (ottima), e vivo felice...Mi rimane pero' la curiosità di provare una strix esente da difetti :D

MikkiClock
04-02-2021, 21:45
Primi risultati a 925 mV e @2010 mi pare che sia in linea alle altre tuf 3070 oc, o no?
https://i.ibb.co/Bs0Hr8s/925-2010.png (https://ibb.co/zfqW7Kf)

MikkiClock
04-02-2021, 21:56
Fire Strike extreme stessi settaggi.
https://i.ibb.co/XyfcmMh/FS925-2010.png (https://ibb.co/TKD9zdV)

Markus Lux
04-02-2021, 22:16
Lasciamo perdere guarda...io la strix la puntavo da prima che annunciassero le ampere, non sapendo neanche come fosse fatta e ho cercato di prenderla in tutti i modi da settembre. Ero riuscito a prenderla finalmente con il famoso drop del 3 novembre ma amazon me l'ha annullato...Da li' in poi mi sono messo sotto coi bot e ne ho prese due, una per me e una per un mio amico, che mi hanno spedito ma erano etrambe fallate e rese (quella del mio amico ha dato problemi dopo circa una settimana). Poi ho preso una tuf (gpu fantastica) e la suprim x (ottima), e vivo felice...Mi rimane pero' la curiosità di provare una strix esente da difetti :D


Conosco due persone che hanno la Strix, e a loro mai mezzo problema, al massimo chiedo se uno dei due la volesse vendere :D


Inviato dal mio iPhone 12 Pro Max utilizzando Tapatalk

Thunder-74
04-02-2021, 22:37
Io e un mio amico abbiamo preso le Strix con il drop del 3 novembre .. che vi devo dire se non sgrat sgrat :fagiano:
La mia è meno fortunella della sua, ma a liquido a 2175 bencha, ad aria sui 2130...


Inviato dal mio iPhone X utilizzando Tapatalk

Kudram
04-02-2021, 22:58
Ragazzi, partendo dal presupposto che ho deciso di prendere una 3090 TUF, secondo voi ha senso spendere di più per prendere la versione OC invece della "base"?

Versione base:
OC Mode - 1725 MHz (Boost Clock)
Gaming Mode - 1695 MHz (Boost Clock)

Versione OC:
OC mode : 1770 MHz (Boost Clock)
Gaming mode : 1740 MHz (Boost Clock)

:mbe:

Thunder-74
04-02-2021, 23:32
Ragazzi, partendo dal presupposto che ho deciso di prendere una 3090 TUF, secondo voi ha senso spendere di più per prendere la versione OC invece della "base"?





:mbe:


In teoria la versione OC dovrebbe essere con un chip più binnato.... dato che questo non è detto, dato che OC non stravolge l esperienza di gioco, se la differenza tra le due è superiore a 30 euro, risparmia . Ma sopratutto prendi la prime delle due disponibile


Inviato dal mio iPhone X utilizzando Tapatalk

(THE REAL) Neo
05-02-2021, 00:03
@Thunder
Confermo,la lettura da HwInfo64,è corretta.

https://i.postimg.cc/L4rpd7Gg/Clipboard01.jpg (https://postimg.cc/JtcgZTrR)

Thunder-74
05-02-2021, 06:59
@Thunder
Confermo,la lettura da HwInfo64,è corretta.

https://i.postimg.cc/L4rpd7Gg/Clipboard01.jpg (https://postimg.cc/JtcgZTrR)


Grazie Neo , sei stato molto gentile :)

EDIT: perdonami, intendevo se la Temp GPU Memory Juction apparsa con l'ultima rev. di Hwinfo, risulta allineata con la temp più alta rilevata dalla FTW3

https://i.imgur.com/x6r6UVw.jpg

Inviato dal mio iPhone X utilizzando Tapatalk

freddye78
05-02-2021, 08:06
Buongiorno a tutti, secondo voi una sessione di un paio di ore a cyberpunk senza problemi, può essere un efficace test di stabilità di un undervolt?

Thunder-74
05-02-2021, 08:13
Buongiorno a tutti, secondo voi una sessione di un paio di ore a cyberpunk senza problemi, può essere un efficace test di stabilità di un undervolt?

abbastanza, ma se le fai con Control ancora meglio ;)

Cutter90
05-02-2021, 08:32
Buongiorno a tutti, secondo voi una sessione di un paio di ore a cyberpunk senza problemi, può essere un efficace test di stabilità di un undervolt?

Per Cyberpunk magari si. Poi fai ac valhalla e crashi facile :O

freddye78
05-02-2021, 08:55
Per Cyberpunk magari si. Poi fai ac valhalla e crashi facile :OVisto che la serie AC mi ha sempre fatto schifo, non corro il rischio

freddye78
05-02-2021, 08:56
abbastanza, ma se le fai con Control ancora meglio ;)Mah, a me questo gioco attira zero. Nei vari video visti non mi è mai venuta voglia di giocarci

fraussantin
05-02-2021, 09:06
Per Cyberpunk magari si. Poi fai ac valhalla e crashi facile :OMa poi é assurdo giochi per ore a 97% di sforzo e fila via , poi entri in un nuovo paese , e bam .. ieri mi é crashato anche nella mappa , e un altra volta mentre era nei menú .
Non c'é logica , ma il crash | del driver nvlddeccecc..

Ho contattato il supporto ubilol per farlo presente per gentili patch e mi hanno rifilato la.solota lista di cose da fare per i bimbetti che non hanno mai visto un PC ...

Nvidia manco saprei come contattarla.

FroZen
05-02-2021, 09:27
L'IA nvidia ti contatterà quando meno te lo aspetti :O il DLSS serve anche a quello

freddye78
05-02-2021, 09:37
Ma poi é assurdo giochi per ore a 97% di sforzo e fila via , poi entri in un nuovo paese , e bam .. ieri mi é crashato anche nella mappa , e un altra volta mentre era nei menú .
Non c'é logica , ma il crash | del driver nvlddeccecc..

Ho contattato il supporto ubilol per farlo presente per gentili patch e mi hanno rifilato la.solota lista di cose da fare per i bimbetti che non hanno mai visto un PC ...

Nvidia manco saprei come contattarla.Il problema si presenta anche disattivando xmp?
Comunque qui sembrerebbe un semplice problema di driver che entra in conflitto col gioco, probabilmente si fixerà con la prossima versione

gabmamb
05-02-2021, 09:41
Configurazione:

Silverstone Strider 750W 80 Plus Platinum
MSI B550 Tomahawk
AMD Ryzen 5 5600x@4825mhz pbo -25
Noctua NH-U12A
4x8gb DDR4 Patriot Viper Steel 3400mhz@3800mhz 16-19-20-38

VGA: Palit RTX 3070 GamingPro OC 8GB

+140mhz sul core e +1200mhz sulle memorie, stabile sia in game che durante i bench, ho solo alzato il power limit ed il temp limit senza toccare il voltaggio. Temperature variano dai 55 ai 65 gradi.

il PL max quant'è? di quanto l'hai alzato?

fraussantin
05-02-2021, 09:46
Il problema si presenta anche disattivando xmp?
Comunque qui sembrerebbe un semplice problema di driver che entra in conflitto col gioco, probabilmente si fixerà con la prossima versioneNo non ho provato , perché é troppo randomico . Dovrei tenere xmp disattivato per giorni e non ne ho voglia.

Ho fatto memtest veloce e errori non ne trova ma anche li andrebbe fatto per 4,5 ore e mi scoccia.

bagnino89
05-02-2021, 10:03
L'IA nvidia ti contatterà quando meno te lo aspetti :O il DLSS serve anche a quello

:asd:

No non ho provato , perché é troppo randomico . Dovrei tenere xmp disattivato per giorni e non ne ho voglia.

Ho fatto memtest veloce e errori non ne trova ma anche li andrebbe fatto per 4,5 ore e mi scoccia.

Usa testmem5 col profilo di 1usmus:

https://www.overclock.net/threads/new-dram-calculator-for-ryzen%E2%84%A2-1-7-3-overclocking-dram-on-am4-membench-0-8-dram-bench.1640919/page-216#post-27937684

Con mezz'ora finisce e secondo me è uno tra i più affidabili.

freddye78
05-02-2021, 10:03
No non ho provato , perché é troppo randomico . Dovrei tenere xmp disattivato per giorni e non ne ho voglia.

Ho fatto memtest veloce e errori non ne trova ma anche li andrebbe fatto per 4,5 ore e mi scoccia.Ma non cambierebbe nulla impostando la frequenza manualmente invece che farlo fare dall'xmp,ci perdi giusto quei pochi secondi per settare il tutto.

Nemesis8719
05-02-2021, 10:05
A me crasha a caso Shadow of the tomb raider, ma con qualsiasi scheda, sia 3080 che 3070. Leggendo in rete sembra un problema abbastanza frequente, per ora ho risolto usando le directx 11 invece che 12:rolleyes:

freddye78
05-02-2021, 10:08
A sto punto sembrerebbe che il driver nvidia non è ancora del tutto ottimizzato per le nuove schede e può far crashare i giochi

bagnino89
05-02-2021, 10:09
A me crasha a caso Shadow of the tomb raider, ma con qualsiasi scheda, sia 3080 che 3070. Leggendo in rete sembra un problema abbastanza frequente, per ora ho risolto usando le directx 11 invece che 12:rolleyes:

Comunque sì, secondo me a volte sono proprio i giochi buggati, non è una questione di OC vari...

Ieri comunque Thunder aveva segnalato un aggiornamento per Windows che sembra risolvere in modo specifico alcuni crash con i giochi...

Cutter90
05-02-2021, 10:14
Visto che la serie AC mi ha sempre fatto schifo, non corro il rischio

Mah, a me questo gioco attira zero. Nei vari video visti non mi è mai venuta voglia di giocarci

Sono solo due giochi. Non è che lo fa solo con quelli. Ogni gioco fa storia a se, era questo il punto

OT Vedo gente con il mio processore su youtube che sta sui 50-60 gradi con la cpu ingame esattamente come me... ma con aio da 240 o addirittura da 360. Come può essere?

Thunder-74
05-02-2021, 10:50
Ma poi é assurdo giochi per ore a 97% di sforzo e fila via , poi entri in un nuovo paese , e bam .. ieri mi é crashato anche nella mappa , e un altra volta mentre era nei menú .
Non c'é logica , ma il crash | del driver nvlddeccecc..

Ho contattato il supporto ubilol per farlo presente per gentili patch e mi hanno rifilato la.solota lista di cose da fare per i bimbetti che non hanno mai visto un PC ...

Nvidia manco saprei come contattarla.

Considera che a volte i crash non sono sotto sforzo continuo, ma durante un alternanza freq/voltaggio, come avveniva a quasi tutte le 3080 con i primi driver rilasciati, sopra ai 2ghz.

Thunder-74
05-02-2021, 10:55
A me crasha a caso Shadow of the tomb raider, ma con qualsiasi scheda, sia 3080 che 3070. Leggendo in rete sembra un problema abbastanza frequente, per ora ho risolto usando le directx 11 invece che 12:rolleyes:

Nemesis, tralasciando l'ipotesi che possa anche essere il gioco, io penso che tu possa avere qualcosa di instabile nel setup del bios della scheda madre.
Te lo dico perchè, mi dici che la Strix ti crashava a def, ed è molto strano, hai crash in DX12 e non in Dx11 su Tomb Raider. Considera che in DX12 la CPU è più stressata che non in DX11.

Ora non so se hai OC su CPU, sul Ring Ratio e che voltaggi stai usando.

Io farei delle prove con tutto su AUTO nel bios.

LucaZPF
05-02-2021, 11:06
Con il 600 non ci stai dentro di sicuro, ieri durante i test la mia ha superato di slancio i 600w e un margine devi tenertelo, minimo un 850w si ottima qualità (tipo Seasonic) o un 1000w, anche in un'ottica di futuri upgrade...

Ho un case Mini-ITX e con la 3090 mi ci stanno solo PSU in formato SFX. Che io sappia il più potente è da 750W della Corsair, l'SF750 ma non lo trovo da nessuna parte

Attualmente ho un 800W ma è SFX-L e con la 3090 non ci sta

Crysis90
05-02-2021, 11:27
L'IA nvidia ti contatterà quando meno te lo aspetti :O il DLSS serve anche a quello

Quella di AMD cosa fa, invece?

Aaaahhhh, scusa, ma che sbadato che sono.
AMD non ce l'ha l'IA.....

h4xor 1701
05-02-2021, 11:47
salve a tutti, mi unisco al club da possessore di una Inno3D RTX 3090 iChillX4, provengo da una GTX 970 OC custom bios ed è stato un bel salto in avanti :D
L'ho messa a lavoro parecchio durante queste ultime settimane,
in Cyberpunk con BIOS stock ho questi risultati:
stock bios, 1830mhz avg real boost (target boost 1855mhz) e 72c (24c ambiente) stock TDP 350w
Settaggi: 4K Ultra + RT reflections and shadows + DLSS Quality = 56/61 fps (in the city)
Per il momento non ho ben capito quel'è il miglior modo di approcciare il downvolting in favore delle performance.
Provato con BIOS della KFA2 che ha un TDP sbloccato fino a 390W (la Inno3d lo ha bloccato a 350W), ma nei bench sintetici sebbene i max fps son più alti, la scheda va subito in thermal throttling e come average ha valori peggiori rispetto a TDP stock. Purtroppo devo dire che per dissipare bene questa scheda serve un Waterblock, specialmente se si volgliono tenere boost frequencies 1900/2000Mhz con TDP +370W

fraussantin
05-02-2021, 11:54
Considera che a volte i crash non sono sotto sforzo continuo, ma durante un alternanza freq/voltaggio, come avveniva a quasi tutte le 3080 con i primi driver rilasciati, sopra ai 2ghz.Lo fa a che a frequenza e voltaggio bloccati fissi .

Lo ha fatto a stock , lo ha fatto a 900@1900 , lo ha fatto a a 900@1800 che sarebbe piú basso che a stock e fisso .

Li devono lavorare o col driver o con l'engine.
@ frozen

Sarà che siccome c'è| lo zampino di AMD , lo fanno crashare apposta su schede verdi ! :asd:

Lucabeer
05-02-2021, 12:12
Per il momento non ho ben capito quel'è il miglior modo di approcciare il downvolting in favore delle performance.


Il downvolting serve in primis a stressare meno l'alimentatore e a rosicchiare 4-5 gradi di temperatura, non ad aumentare le performance.

Poi, però, se originariamente la scheda limitava le performance per throttling termico o di potenza... ovviamente come conseguenza ha anche un miglioramento delle performance (come nel mio caso, perchè i consumi si sono abbassati di 20-30 W, e quindi va più tardi in limitazione di potenza).

Cutter90
05-02-2021, 12:26
salve a tutti, mi unisco al club da possessore di una Inno3D RTX 3090 iChillX4, provengo da una GTX 970 OC custom bios ed è stato un bel salto in avanti :D
L'ho messa a lavoro parecchio durante queste ultime settimane,
in Cyberpunk con BIOS stock ho questi risultati:
stock bios, 1830mhz avg real boost (target boost 1855mhz) e 72c (24c ambiente) stock TDP 350w
Settaggi: 4K Ultra + RT reflections and shadows + DLSS Quality = 56/61 fps (in the city)
Per il momento non ho ben capito quel'è il miglior modo di approcciare il downvolting in favore delle performance.
Provato con BIOS della KFA2 che ha un TDP sbloccato fino a 390W (la Inno3d lo ha bloccato a 350W), ma nei bench sintetici sebbene i max fps son più alti, la scheda va subito in thermal throttling e come average ha valori peggiori rispetto a TDP stock. Purtroppo devo dire che per dissipare bene questa scheda serve un Waterblock, specialmente se si volgliono tenere boost frequencies 1900/2000Mhz con TDP +370W

Naturalmente hai già customizzato le ventole creando un bel profilo su AB giusto?
E' la base.

Io la mia riesco a tenerla costante sopra i 2015 mhz, però dipende da gioco a gioco.

I settaggi in cp vieni sul thread tecnico di cp su questo forum che ne parliamo

(THE REAL) Neo
05-02-2021, 12:56
Grazie Neo , sei stato molto gentile :)

EDIT: perdonami, intendevo se la Temp GPU Memory Juction apparsa con l'ultima rev. di Hwinfo, risulta allineata con la temp più alta rilevata dalla FTW3

https://i.imgur.com/x6r6UVw.jpg

Inviato dal mio iPhone X utilizzando TapatalkFigurati,stasera verifico.

Maury
05-02-2021, 13:04
La modalità alimentazione nvidia settata su prestazioni funziona regolarmente o è fallata? Ogni volta che provo ad attivarla oltre a bloccare l'esecuzione delle applicazioni mi rende un colabrodo il sistema, anche disabilitandola. Non la proverò di certo mai più.

Ultimo driver certificato.

Nemesis8719
05-02-2021, 13:13
Nemesis, tralasciando l'ipotesi che possa anche essere il gioco, io penso che tu possa avere qualcosa di instabile nel setup del bios della scheda madre.
Te lo dico perchè, mi dici che la Strix ti crashava a def, ed è molto strano, hai crash in DX12 e non in Dx11 su Tomb Raider. Considera che in DX12 la CPU è più stressata che non in DX11.

Ora non so se hai OC su CPU, sul Ring Ratio e che voltaggi stai usando.

Io farei delle prove con tutto su AUTO nel bios.
È già su auto default.
Comunque la 3080 crashava con gli altri giochi, tomb raider crasha uguale anche nel mini itx, sembra un errore driver. Ho cercato in rete, errore frequente sicuramente causato dai driver, appena lo fa lo posto.

h4xor 1701
05-02-2021, 13:30
Naturalmente hai già customizzato le ventole creando un bel profilo su AB giusto?
E' la base.

Io la mia riesco a tenerla costante sopra i 2015 mhz, però dipende da gioco a gioco.

I settaggi in cp vieni sul thread tecnico di cp su questo forum che ne parliamo

come curva per le ventole ne ho fatta una abbastanza aggressiva che a 60c stanno già al 60%, al 80% la scheda sembra decollare :D
che intendi per profilo AB?
nel case ho due ventole da 140 in immissione frontali, tre da 120 in estrazione superiore sul radiatore cpu, ed una in estrazione da 120 posteriore,
farebbe comodo una in immissione inferiore che butta aria proprio sotto la scheda ma ho i cavi dell'ali in mezzo :rolleyes:

Cutter90
05-02-2021, 13:45
come curva per le ventole ne ho fatta una abbastanza aggressiva che a 60c stanno già al 60%, al 80% la scheda sembra decollare :D
che intendi per profilo AB?
nel case ho due ventole da 140 in immissione frontali, tre da 120 in estrazione superiore sul radiatore cpu, ed una in estrazione da 120 posteriore,
farebbe comodo una in immissione inferiore che butta aria proprio sotto la scheda ma ho i cavi dell'ali in mezzo :rolleyes:

Ok ok sei a posto. AB= msi afterburner.
Allora meglio di così nelle tue condizioni forse non puoi fare, soprattutto se all'80 % trovi già insostenibile il rumore delle ventole

h4xor 1701
05-02-2021, 13:58
Ok ok sei a posto. AB= msi afterburner.
Allora meglio di così nelle tue condizioni forse non puoi fare, soprattutto se all'80 % trovi già insostenibile il rumore delle ventole

più che trovare insostenibile il rumore, ho paura che partono le ventole prima del tempo :D
scherzi apparte la tua è una scheda meravigliosa, penso la più bella aircooled, peccato sia introvabile a prezzi 'no scalping', ma col senno del poi in un mondo ideale dove è possibile avere una scelta di stock sulle schede avrei preso l'EVGA Hybrid watercooled..
tu su che temperature ti trovi?
oggi penso provo a fare qualche test con downvolt e vediamo

Shadow Man
05-02-2021, 14:56
Io da quando mi è arrivata la 3070 mi sento già più intelligente :sofico:

E hai preso soltanto una 3070,con la 3080 era sicuro un +10 a int e +5 car

Cutter90
05-02-2021, 15:06
più che trovare insostenibile il rumore, ho paura che partono le ventole prima del tempo :D
scherzi apparte la tua è una scheda meravigliosa, penso la più bella aircooled, peccato sia introvabile a prezzi 'no scalping', ma col senno del poi in un mondo ideale dove è possibile avere una scelta di stock sulle schede avrei preso l'EVGA Hybrid watercooled..
tu su che temperature ti trovi?
oggi penso provo a fare qualche test con downvolt e vediamo

Ho su il bios da 500 watt, quindi sono proprio all'estremo ad aria. In game con utilizzo 100%, con 480-490 watt di consumo effettivi sto sui 64-70 gradi con ventole però al 100% dopo i 60 gradi.
Con il bios di serie oc da 450 watt arrivato a 62 gradi massimi.
Il problema delle ibride è che non escono mai al d1. E io solitamente al d1 sono senza scheda dato che ho venduto la vecchia per ricavarci il massimo

SinapsiTXT
05-02-2021, 15:15
E io solitamente al d1 sono senza scheda dato che ho venduto la vecchia per ricavarci il massimo

Cosa che in sto caso non è si è verificata perchè chi sta vendendo ora le gpu usate ci sta ricavando di più di chi le ha vendute la scorsa estate prima della presentazione di Ampere :asd:

Cutter90
05-02-2021, 15:16
Cosa che in sto caso non è si è verificata perchè chi sta vendendo ora le gpu usate ci sta ricavando di più di chi le ha vendute la scorsa estate prima della presentazione di Ampere :asd:

Non nel mio caso, dato che la mia zotac 2080 ti pagata 1200 euro 2 anni fa l'ho venduta a 850 pippi :D

h4xor 1701
05-02-2021, 15:56
Ho su il bios da 500 watt, quindi sono proprio all'estremo ad aria. In game con utilizzo 100%, con 480-490 watt di consumo effettivi sto sui 64-70 gradi con ventole però al 100% dopo i 60 gradi.
Con il bios di serie oc da 450 watt arrivato a 62 gradi massimi.
Il problema delle ibride è che non escono mai al d1. E io solitamente al d1 sono senza scheda dato che ho venduto la vecchia per ricavarci il massimo

caspita! la capacità di raffreddamento dell'Aorus è davvero impressionante per essere ad aria!

Una domanda, tralasciando il PL, solo io ho l'impressione che aumentando il Temp Target non cambia nulla? :mbe:

pazzoide76
05-02-2021, 17:11
Ciao a tutti,
volevo solo aggiornarvi sul problema dei led rossi che si accendevano sulla mia Asus 3090 Rog Strix OC in corrispondenza dei cavi di alimentazione ed io ho risolto cambiando alimentatore.
Ho preso un corsair ax1000 e il problema è sparito.

Nemesis8719
05-02-2021, 17:12
caspita! la capacità di raffreddamento dell'Aorus è davvero impressionante per essere ad aria!

Una domanda, tralasciando il PL, solo io ho l'impressione che aumentando il Temp Target non cambia nulla? :mbe:
Io l'ho avuta l'aorus 3090 xtreme ed era ottima anche se il sistema di dissipazione asus per me è il migliore

Thunder-74
05-02-2021, 17:34
È già su auto default.
Comunque la 3080 crashava con gli altri giochi, tomb raider crasha uguale anche nel mini itx, sembra un errore driver. Ho cercato in rete, errore frequente sicuramente causato dai driver, appena lo fa lo posto.


Allora zero speranze .... ;)


Inviato dal mio iPhone X utilizzando Tapatalk

Thunder-74
05-02-2021, 17:37
caspita! la capacità di raffreddamento dell'Aorus è davvero impressionante per essere ad aria!

Una domanda, tralasciando il PL, solo io ho l'impressione che aumentando il Temp Target non cambia nulla? :mbe:


Il target temp serve a definire il thermal throttling della vga . Ovvero un bel taglio dell freq, passando dal profilo 3d al profilo 2d del bios. Freq che vedo in sostanza quando la vga non è a pieno ...carico 1000-1200 mhz circa

Edit...
Scusate doppio post ... mi faccio perdonare...

GeForce Hotfix display driver version 461.51 LINK (https://nvidia.custhelp.com/app/answers/detail/a_id/5158?linkId=100000031463074)

The hotfix addresses the following issues:

- [Ampere] Chrome/Edge may experience random TDR while browsing [3195894]
- [G-SYNC][Edge of Eternity/Hitman 2]: The games experience stutter and low FPS when Hardware-accelerated GPU scheduling in windowed mode [200685971]
- Wallpaper Engine app may crash on startup or upon resume from sleep. [3208963]
- [461.40] LG CX OLED TVs (2020) are not recognized as G-SYNC Compatible displays [3244055]
- [Surround][RTX 30 series] PC may display no signal message when enabling NVIDIA Surround [3230565]
- On some Notebooks ‘Maximum Graphics Power’ information missing in NV Control Panel - System Information [200697069]



Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
05-02-2021, 18:01
Il target temp serve a definire il thermal throttling della vga . Ovvero un bel taglio dell freq, passando dal profilo 3d al profilo 2d del bios. Freq che vedo in sostanza quando la vga non è a pieno ...carico 1000-1200 mhz circa

Edit...
Scusate doppio post ... mi faccio perdonare...

GeForce Hotfix display driver version 461.51

The hotfix addresses the following issues:

- [Ampere] Chrome/Edge may experience random TDR while browsing [3195894]
- [G-SYNC][Edge of Eternity/Hitman 2]: The games experience stutter and low FPS when Hardware-accelerated GPU scheduling in windowed mode [200685971]
- Wallpaper Engine app may crash on startup or upon resume from sleep. [3208963]
- [461.40] LG CX OLED TVs (2020) are not recognized as G-SYNC Compatible displays [3244055]
- [Surround][RTX 30 series] PC may display no signal message when enabling NVIDIA Surround [3230565]
- On some Notebooks ‘Maximum Graphics Power’ information missing in NV Control Panel - System Information [200697069]

https://www.overclock3d.net/news/gpu_displays/nvidia_s_latest_hotfix_driver_addresses_g-sync_issues_and_more/1


Inviato dal mio iPhone X utilizzando Tapatalk

Grazie Thunder, ti dovrebbero fare admin di sezione :D :cool:

bagnino89
05-02-2021, 18:21
- [Ampere] Chrome/Edge may experience random TDR while browsing [3195894]

Diamine, allora non ho le allucinazioni! Proprio stamattina per qualche secondo il browser si è impuntato... Poi è tornato tutto normale.

Grazie Thunder, ti dovrebbero fare admin di sezione :D :cool:

Quoto!

Felice2
05-02-2021, 18:37
Ciao a tutti,
volevo solo aggiornarvi sul problema dei led rossi che si accendevano sulla mia Asus 3090 Rog Strix OC in corrispondenza dei cavi di alimentazione ed io ho risolto cambiando alimentatore.
Ho preso un corsair ax1000 e il problema è sparito.

Ottimo Pazzoide sono contento per te del resto io te l'avevo detto che la "colpa" era dell'alimentatore. Queste strix però bisogna dire che sono davvero le regine delle schede per la loro cura costruttiva e le loro finezze.
I led rossi sono proprio uno strumento sensibilissimo.
Meno male che non hai fatto il reso (e per quello un po' del merito è anche mio):cincin:

Thunder-74
05-02-2021, 18:50
Grazie Thunder, ti dovrebbero fare admin di sezione :D :cool:

Diamine, allora non ho le allucinazioni! Proprio stamattina per qualche secondo il browser si è impuntato... Poi è tornato tutto normale.



Quoto!

:D

io ho disattivato l'accelerazione HW su Chrome, perchè ho visto problemi di veloci reflash della pagina..

pazzoide76
05-02-2021, 18:52
Ottimo Pazzoide sono contento per te del resto io te l'avevo detto che la "colpa" era dell'alimentatore. Queste strix però bisogna dire che sono davvero le regine delle schede per la loro cura costruttiva e le loro finezze.
I led rossi sono proprio uno strumento sensibilissimo.
Meno male che non hai fatto il reso (e per quello un po' del merito è anche mio):cincin:
Si alla fine sono contento di non aver fatto il reso e concordo con te che sono delle grandi schede.
Se non ho fatto il reso è per merito anche tuo e ti ringrazio.
Il problema è che per avere un alimentatore decente ci sono volute tre settimane in quanto non si riusciva a trovare nulla di un certo livello.

joytag
05-02-2021, 19:27
Sto iniziando a smanettare un po' con la build mini itx. Collegata all'oled è una figata pazzesca.

Un video su metro Exodus:

Visto il video che hai postato di Metro Exodus e vorrei sapere se hai overcloccato la tua Zotac RTX 3070 Twin Edge. Che frequenza hai impostato?
Grazie.

Nemesis8719
05-02-2021, 19:29
Allora zero speranze .... ;)


Inviato dal mio iPhone X utilizzando Tapatalk
Ecco, l'errore è:
0x887A0006: DXGI_ERROR_DEVICE_HUNG

Crasha random, a volte magari riesco a giocare anche mezz'ora, a volte invece si blocca dopo 3 minuti nel menù. Stesso errore sia con la 3080 che per la 3070(sia la tuf che la dual), provato nel pc1 con 9900k e nel mini con 9600k.
Qua il thread che ne parla sul forum Nvidia:
https://www.nvidia.com/en-us/geforce/forums/moar-games/35/283647/shadow-of-the-tomb-raider-crashing-0x887a0006-dxgi/

Thunder-74
05-02-2021, 19:34
Ecco, l'errore è:
0x887A0006: DXGI_ERROR_DEVICE_HUNG

Crasha random, a volte magari riesco a giocare anche mezz'ora, a volte invece si blocca dopo 3 minuti nel menù. Stesso errore sia con la 3080 che per la 3070(sia la tuf che la dual), provato nel pc1 con 9900k e nel mini con 9600k.
Qua il thread che ne parla sul forum Nvidia:
https://www.nvidia.com/en-us/geforce/forums/moar-games/35/283647/shadow-of-the-tomb-raider-crashing-0x887a0006-dxgi/

hai per caso attivi sistemi OSD? Afterburner, Overlay di GF Experience o altro?

a volte in DX12 sono questi programmi che lavorando a basso livello con HW , danno problemi.

joytag
05-02-2021, 19:37
Tutto stock.

Che media hai in Metro Exodus Maxato a 4k con la tua 3070, raggiungi 60 frames in 4k?

dinamite2
05-02-2021, 19:46
ragazzi, ho un problema con la mia strix, in pratica non riesco a far andare le ventole a default, anche disabilitando la modalità 0db fan, parte solo la ventola centrale, le due esterne iniziano a girare e poi si fermano di continuo...
Ho gia aggiornato all'ultimo bios presente sul sito asus ma non è cambiato nulla.
Avete idee e soluzioni?

Nemesis8719
05-02-2021, 21:03
hai per caso attivi sistemi OSD? Afterburner, Overlay di GF Experience o altro?

a volte in DX12 sono questi programmi che lavorando a basso livello con HW , danno problemi.
Mmm ora che ci penso avevo asus tweak aperto dietro che monitorava, quindi magari si. GF Experience devo guardare, installato e praticamente mai usato :asd:
Appena ho del tempo faccio delle prove.

ragazzi, ho un problema con la mia strix, in pratica non riesco a far andare le ventole a default, anche disabilitando la modalità 0db fan, parte solo la ventola centrale, le due esterne iniziano a girare e poi si fermano di continuo...
Ho gia aggiornato all'ultimo bios presente sul sito asus ma non è cambiato nulla.
Avete idee e soluzioni?
Lo faceva anche la mia, partivano e si fermavano di continuo. Avevo disabilitato l'opzione 0db, mi sembrava strano ma le ventole erano gli ultimi dei miei problemi :stordita:
Con la tuf 3090 nessun problema invece.

yume the ronin
05-02-2021, 21:17
mi aggiungo ai possessore di 30xx con problemi: da quando ho sostituito la 2080 con la 3090 ho degli spegnimenti improvvisi del pc senza un apparente motivo

per esempio riesco a giocare tranquillamente a the division 2 e 3d mark completa senza problemi sia i benchmark che lo stress test, ma si spegne e riavvia dopo 5 minuti con industry of titans o cyberpunk

il visualizzatore eventi da errore kernel 41 generico.. da semplice osservazione non è riconducibile ad un problema di "pesantezza", mbho, non riesco a capire.

tutto a default, niente di particolare da segnalare... ora sto provando a formattare tutto il sistema per partire pulito

ah, come alimentatore ho il Corsair HX1000i

neanche da dire che con la 2080 non avevo nessun problema

Thunder-74
05-02-2021, 21:21
mi aggiungo ai possessore di 30xx con problemi: da quando ho sostituito la 2080 con la 3090 ho degli spegnimenti improvvisi del pc senza un apparente motivo

per esempio riesco a giocare tranquillamente a the division 2 e 3d mark completa senza problemi sia i benchmark che lo stress test, ma si spegne riavvia dopo 5 minuti con industry of titans o cyberpunk

neanche da dire che con la 2080 non avevo nessun problema

da semplice osservazione non è riconducibile ad un problema di "pesantezza", mbho, non riesco a capire

tutto a default, niente di particolare da segnalare... ora sto provando a formattare tutto il sistema per partire pulito

ah, come alimentatore ho il Corsair HX1000i


Dovresti poter decidere via software se multi rail o single rail sul tuo ali . Sincerati di aver settato single rail , in modo di avere tutti gli 83A disponibili e non suddivisi sui vari canali .

Altra consigli:
Usare sempre cavi singoli ali connettori 8pin VGA

Se si usano prolunghe , provare ad eliminarle

Inviato dal mio iPhone X utilizzando Tapatalk

(THE REAL) Neo
05-02-2021, 23:38
Dovresti poter decidere via software se multi rail o single rail sul tuo ali . Sincerati di aver settato single rail , in modo di avere tutti gli 83A disponibili e non suddivisi sui vari canali .

Altra consigli:
Usare sempre cavi singoli ali connettori 8pin VGA

Se si usano prolunghe , provare ad eliminarle

Inviato dal mio iPhone X utilizzando TapatalkThunder,ho guardato su HwInfo64 e su Precision X1.
In pratica,la temp junction,rilevata da HwInfo64,non é riportata da nessuno dei sensori iCx.
Se le memorie sono a 33/34°,la Junction é a 38 con balzi anche a 43,nel giro di un secondo o due.

Dattofree
06-02-2021, 00:00
ragazzi, ho un problema con la mia strix, in pratica non riesco a far andare le ventole a default, anche disabilitando la modalità 0db fan, parte solo la ventola centrale, le due esterne iniziano a girare e poi si fermano di continuo...
Ho gia aggiornato all'ultimo bios presente sul sito asus ma non è cambiato nulla.
Avete idee e soluzioni?

Con che programma hai effettuato l'update del bios? Hai provato a disinstallare tutti i software di monitoraggio della gpu?

dinamite2
06-02-2021, 01:56
Con che programma hai effettuato l'update del bios? Hai provato a disinstallare tutti i software di monitoraggio della gpu?

Ho aggiornato con l’update che offre asus sul suo sito.
Ovviamente si, ho disinstllato Msi after burner prima, ma nulla.
La centrale gira, le due laterali me le segna al 33% ma non girano, o meglio, partono e si fermano di continuo in maniera ciclica

fraussantin
06-02-2021, 06:24
Ho aggiornato con l’update che offre asus sul suo sito.

Ovviamente si, ho disinstllato Msi after burner prima, ma nulla.

La centrale gira, le due laterali me le segna al 33% ma non girano, o meglio, partono e si fermano di continuo in maniera ciclicaHai installato qualche altro sw oltre a AB? Tipo per esempio quello Asus? Nel caso di sì prova a settare con quello

Thunder-74
06-02-2021, 09:03
Buongiorno ragazzi.. stavo leggendo un articolo sulla funzione resize Bar su base z490 con un 10850k è una 6800

L articolo dice che il Delta che si ottiene è il medesimo ottenuto con Ryzen su pcie 4.0 , quindi il 3.0 ancora risulta sufficiente per gestire anche il traffico dati tra CPU e vram.

Ma quello che ho notato e quanto faccia bene ad alcuni titoli come valhalla...

https://overclock3d.net/gfx/articles/2021/01/29125018422l.jpg


Inviato dal mio iPad utilizzando Tapatalk

Iceman69
06-02-2021, 09:10
Ho aggiornato con l’update che offre asus sul suo sito.
Ovviamente si, ho disinstllato Msi after burner prima, ma nulla.
La centrale gira, le due laterali me le segna al 33% ma non girano, o meglio, partono e si fermano di continuo in maniera ciclica

Sotto il 45% neanche a me partono, anche perché già con quella percentuale sono a 600 giri, Inutile andare sotto, già sono inudibili.

Cutter90
06-02-2021, 09:28
Buongiorno ragazzi.. stavo leggendo un articolo sulla funzione resize Bar su base z490 con un 10850k è una 6800

L articolo dice che il Delta che si ottiene è il medesimo ottenuto con Ryzen su pcie 4.0 , quindi il 3.0 ancora risulta sufficiente per gestire anche il traffico dati tra CPU e vram.

Ma quello che ho notato e quanto faccia bene ad alcuni titoli come valhalla...

https://overclock3d.net/gfx/articles/2021/01/29125018422l.jpg


Inviato dal mio iPad utilizzando Tapatalk

Molto molto bene. Sarà un discreto boost prestazionale: ora dobbiamo solo aspettare che "esca"

yume the ronin
06-02-2021, 09:32
Dovresti poter decidere via software se multi rail o single rail sul tuo ali . Sincerati di aver settato single rail , in modo di avere tutti gli 83A disponibili e non suddivisi sui vari canali .

Altra consigli:
Usare sempre cavi singoli ali connettori 8pin VGA

Se si usano prolunghe , provare ad eliminarle

Inviato dal mio iPhone X utilizzando Tapatalk
oh belin, grande, apparentemente ha funzionato, ho giocato un'ora a cyberpunk senza nessun problema :cincin: