View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
albero77
03-08-2021, 08:38
Si mi ricordo che a suo tempo aveva notato che il processo in back occupava troppe risorse. Nel caso delle strisce dice il tizio di Corsair che la scheda video deve dedicare parte del calcolo per sincronizzare le strisce alle schermate. Quindi se stai giocando una parte dei calcoli se ne va per gli rgb. Alla fine quando gioco disattivo l'ambient, quando vedo i film lo lascio attivo, no problem. Peccato solo che ho passato una giornata in sbattimento per capire cosa mi tarpava la nuova scheda video. Ora son sereno comunque :fagiano:
Io per l'ambient sono passato a questo:
https://eu.govee.com/products/immersion-tv-backlights
Funziona da dio
Fine ot
TigerTank
03-08-2021, 08:41
Ho riprovato un +120/+500(sui 2100MHz di partenza) vdef chiudendo icue, il servizio di aquasuite e spegnendo tutto da armoury crate. Mi sembra in linea.
Da capire se oltre alle influenze di certi programmi in background, sia anche AB che ogni tanto va in tilt, specialmente ritoccando le curve in undervolt.
E' che purtroppo servizi come Icue e aquasuite non servono solo per le "lucine" ma per altre gestioni (mouse, tastiera, sistema a liquido ecc...).
http://i.imgur.com/o8omUQ1l.jpg (https://imgur.com/o8omUQ1)
dinamite2
03-08-2021, 10:56
Ho riprovato un +120/+500(sui 2100MHz di partenza) vdef chiudendo icue, il servizio di aquasuite e spegnendo tutto da armoury crate. Mi sembra in linea.
Da capire se oltre alle influenze di certi programmi in background, sia anche AB che ogni tanto va in tilt, specialmente ritoccando le curve in undervolt.
E' che purtroppo servizi come Icue e aquasuite non servono solo per le "lucine" ma per altre gestioni (mouse, tastiera, sistema a liquido ecc...).
http://i.imgur.com/o8omUQ1l.jpg (https://imgur.com/o8omUQ1)
ho voluto provare anche io con i tuoi stessi valori +120/+500 chiudendo tutti i servizi anche io e piu o meno siamo li...
Forse, la mia strix ha una frequenza base sul core leggermente piu alta della tua a default vero?
i watt di picco invece dove si vedono? è la voce power board draw su gpu-z? perche li mi indica 436 watt :mbe:
https://i.postimg.cc/RhZ92vZ3/qqqq.jpg (https://postimg.cc/2bMPZRvm)
TigerTank
03-08-2021, 11:01
Beh se la tua è a liquido è normale perchè di sicuro taglia un pò meno :)
Ad aria tagliano non poco.
Sì i watt di picco li vedi tipo da gpu-z e credo che con PL da 450W, un valore di 436W sia giusto perchè anche io e Thunder(anche lui ha la Strix) abbiamo avuto l'impressione che venga mantenuto un certo margine di ribasso in cui scatta il "Limite potenza" nell'OSD di AB.
FrancoBit
03-08-2021, 11:05
Beh se la tua è a liquido è normale perchè di sicuro taglia un pò meno :)
Ad aria tagliano non poco.
Sì i watt di picco li vedi tipo da gpu-z e credo che con PL da 450W, un valore di 436W sia giusto perchè anche io e Thunder(anche lui ha la Strix) abbiamo avuto l'impressione che venga mantenuto un certo margine di ribasso in cui scatta il "Limite potenza" nell'OSD di AB.
Io d PL ho 350 (370 teorico) e massimo raggiunto 347, ci sta che non lo raggiungi
TigerTank
03-08-2021, 11:10
Io d PL ho 350 (370 teorico) e massimo raggiunto 347, ci sta che non lo raggiungi
Cavoli nel tuo caso visto che sei pure a liquido dovresti proprio vedere se ci sia un bios da almeno 400W che potresti flashare...
La mia a default girando un semplice Timespy è arrivata a 390W.
Ma più che altro il punto è che attivando nell'OSD di AB il "Limite Potenza"(che ha valore 0 o 1) questo appare già prima di arrivare al limite teorico della propria scheda. Prova ;)
FrancoBit
03-08-2021, 11:13
Cavoli nel tuo caso visto che sei pure a liquido dovresti proprio vedere se ci sia un bios da almeno 400W che potresti flashare...
La mia a default girando un semplice Timespy è arrivata a 390W.
Ma più che altro il punto è che attivando nell'OSD di AB il "Limite Potenza"(che ha valore 0 o 1) questo appare già prima di arrivare al limite teorico della propria scheda. Prova ;)
Ho cercato un po' di storie su reddit, pare che non ci sia niente da fare. Non mi intriga flashare il bios, troppi rischi. Ti dirò, ho picchi di 48 gradi con 28 in ambiente, ho preso i 18.200 in timespy e ieri sono arrivato 2° a Monza con un'Alpha Tauri, per ora son stra sereno così :cool:
Tuning e prove ne farò ancora, grazie per l'info su AB
TigerTank
03-08-2021, 11:24
Ho cercato un po' di storie su reddit, pare che non ci sia niente da fare. Non mi intriga flashare il bios, troppi rischi. Ti dirò, ho picchi di 48 gradi con 28 in ambiente, ho preso i 18.200 in timespy e ieri sono arrivato 2° a Monza con un'Alpha Tauri, per ora son stra sereno così :cool:
Tuning e prove ne farò ancora, grazie per l'info su AB
Figurati...in effetti è un pò la mia stessa situazione con il bios evga da 450W.
Però la prova di quella voce nell'OSD di AB male non fa :)
Io le ho attivate tutte e 3(temperatura, potenza e voltaggio).
FrancoBit
03-08-2021, 11:34
Figurati...in effetti è un pò la mia stessa situazione con il bios evga da 450W.
Però la prova di quella voce nell'OSD di AB male non fa :)
Io le ho attivate tutte e 3(temperatura, potenza e voltaggio).
Si quello lo provo, però considera che la slider del pwr limit non va oltre il 100% su sto modello, più suora non la potevo trovare
dinamite2
03-08-2021, 11:36
riprovato nuovamente con tutto chiuso, e migliorato leggermente il graphic score, ho anche overcloccato la cpu.
Massimo pl raggiunto sempre 435 watt.
Per downvoltare all'inizio abbassate la frequenza di default di 150mhz + o -?
Ho comprato 3 giorni fa rdr2, ma mi crasha in continuazione, potrebbe essere che non regge l'undervolt che ho praticato?
https://i.postimg.cc/bNkJfwzM/wwww.jpg (https://postimg.cc/QHNspsKk)
Usti
una 6800XT si fuma una 3080 in timespy :stordita: peccato che non abbiano più rilasciato dei DLC...avrei voluto sapere come si salvava la tipa dal mostrone :O
Dattofree
03-08-2021, 11:48
riprovato nuovamente con tutto chiuso, e migliorato leggermente il graphic score, ho anche overcloccato la cpu.
Massimo pl raggiunto sempre 435 watt.
Per downvoltare all'inizio abbassate la frequenza di default di 150mhz + o -?
Ho comprato 3 giorni fa rdr2, ma mi crasha in continuazione, potrebbe essere che non regge l'undervolt che ho praticato?
L'undervolt è sui volt. Tu hai parlato di mhz. Bisogna vedere quanto hai messo come valore. I giochi sono completamente diversi dai bench per il semplice motivo che vivono di alti e bassi e poi hanno il momento dove di colpo richiedono il massimo della potenza. In quel caso si vede se un under o un over è corretto. A me succede spesso con Destiny che, pur leggero, in un paio di attività mi spara 310w sulla 3070ti.
mikael84
03-08-2021, 11:50
Figurati...in effetti è un pò la mia stessa situazione con il bios evga da 450W.
Però la prova di quella voce nell'OSD di AB male non fa :)
Io le ho attivate tutte e 3(temperatura, potenza e voltaggio).
Cavoli nel tuo caso visto che sei pure a liquido dovresti proprio vedere se ci sia un bios da almeno 400W che potresti flashare...
La mia a default girando un semplice Timespy è arrivata a 390W.
Hai pure una circuiteria più massiccia. Bisognerebbe fare un rapporto tra core grafico e tutto il resto:)
Di quei 390, quanti vanno al solo core (voce gpu power draw)
Dattofree
03-08-2021, 12:10
Usti
una 6800XT si fuma una 3080 in timespy :stordita: peccato che non abbiano più rilasciato dei DLC...avrei voluto sapere come si salvava la tipa dal mostrone :O
Nei bench AMD va benissimo. Poi le provi in gioco e devi pregare. https://youtu.be/YQCh7baXZEM Dopo mesi e mesi dal lancio delle schede hanno provveduto a migliorare la situazione. AMD se la conosci la eviti, se la conosci non ti uccide (cit )
Thunder-74
03-08-2021, 12:27
Beh se la tua è a liquido è normale perchè di sicuro taglia un pò meno :)
Ad aria tagliano non poco.
Sì i watt di picco li vedi tipo da gpu-z e credo che con PL da 450W, un valore di 436W sia giusto perchè anche io e Thunder(anche lui ha la Strix) abbiamo avuto l'impressione che venga mantenuto un certo margine di ribasso in cui scatta il "Limite potenza" nell'OSD di AB.
si confermo, 436W, ma sono sicuro che nvidia ha fatto qualcosa ai suoi drivers, perchè mesi fa con le medesime impostazioni di OC, arrivato a 456W su TimeSpy.
amon.akira
03-08-2021, 12:44
Beh se la tua è a liquido è normale perchè di sicuro taglia un pò meno :)
Ad aria tagliano non poco.
con ampere funziona diversamente
esempio curva 1950mhz a 30°
35° primo taglio 1935mhz
45° secondo taglio 1920mhz
55° ripristino clock 1950mhz
65° primo taglio 1935mhz
75° secondo taglio 1920mhz
quindi io che ho la scheda tra i 55 e i 65 ad aria ho il fullclock...se avessi un liquido che mi terrebbe la scheda a 48° avrei 1920mhz -30 rispetto ad aria.
i veri tagli su ste schede sono esclusivamente per powerlimit visto quanto assorbono
Dattofree
03-08-2021, 13:11
con ampere funziona diversamente
esempio curva 1950mhz a 30°
35° primo taglio 1935mhz
45° secondo taglio 1920mhz
55° ripristino clock 1950mhz
65° primo taglio 1935mhz
75° secondo taglio 1920mhz
quindi io che ho la scheda tra i 55 e i 65 ad aria ho il fullclock...se avessi un liquido che mi terrebbe la scheda a 48° avrei 1920mhz -30 rispetto ad aria.
i veri tagli su ste schede sono esclusivamente per powerlimit visto quanto assorbono
Sei sicuro? Quindi io che uso la scheda sempre al 100% quando li vedo i primi tagli se già a default sta a 40 gradi o poco più? Quello che hai scritto mi sembra più una tua personale impostazione che una cosa generica.
TigerTank
03-08-2021, 13:12
Hai pure una circuiteria più massiccia. Bisognerebbe fare un rapporto tra core grafico e tutto il resto:)
Di quei 390, quanti vanno al solo core (voce gpu power draw)
Ciao Mike, presto detto. Sui 390W di massima menzionati sopra, 270W circa di massima come "gpu power draw".
con ampere funziona diversamente
esempio curva 1950mhz a 30°
35° primo taglio 1935mhz
45° secondo taglio 1920mhz
55° ripristino clock 1950mhz
65° primo taglio 1935mhz
75° secondo taglio 1920mhz
quindi io che ho la scheda tra i 55 e i 65 ad aria ho il fullclock...se avessi un liquido che mi terrebbe la scheda a 48° avrei 1920mhz -30 rispetto ad aria.
i veri tagli su ste schede sono esclusivamente per powerlimit visto quanto assorbono
Spè scusa, spiegami questa che non l'ho capita...cioè rialzerebbero il clock anche se con una temperatura superiore?
Perchè io invece ho notato che se lascio il voltaggio a default della scheda (1,06-1,08V) anche se la faccio partire da impostati 2100MHz ora della fine del bench mi scala un pò di step. Anche perchè comunque bencho "alla leggera" con la curva che uso sempre...non sparo le ventole fisse al massimo o quasi.
Io comunque in AB, ho sempre dato la priorità alla temperatura:
http://i.imgur.com/kRg0R51l.jpg (https://imgur.com/kRg0R51)
Sei sicuro? Quindi io che uso la scheda sempre al 100% quando li vedo i primi tagli se già a default sta a 40 gradi o poco più? Quello che hai scritto mi sembra più una tua personale impostazione che una cosa generica.
Infatti può essere che se tu imposti una X frequenza di partenza ma hai già la gpu ad una certa temp, la vga sia già ad uno step di frequenza inferiore.
amon.akira
03-08-2021, 13:34
Sei sicuro? Quindi io che uso la scheda sempre al 100% quando li vedo i primi tagli se già a default sta a 40 gradi o poco più? Quello che hai scritto mi sembra più una tua personale impostazione che una cosa generica.
se ti arriva ipotesi a 70gradi avrai sicuramente max 2tagli...io ho fatto l esempio da 55 65 etc...ma variando di mV si può avere un starter point diverso...esempio 30-40-50-60-70
Spè scusa, spiegami questa che non l'ho capita...cioè rialzerebbero il clock anche se con una temperatura superiore?
assicurati di non essere power limit e controlla tu stesso monitorando clock e temp
TigerTank
03-08-2021, 13:56
se ti arriva ipotesi a 70gradi avrai sicuramente max 2tagli...io ho fatto l esempio da 55 65 etc...ma variando di mV si può avere un starter point diverso...esempio 30-40-50-60-70
assicurati di non essere power limit e controlla tu stesso monitorando clock e temp
Ok grazie. Sì a vdef ci arrivo e dovrei provare a mettere il bios da 450W...mentre se vado di undervolt il problema non si pone più :)
Proverò a controllare meglio questa cosa della frequenza nel caso di altri bench.
A meno che sia una cosa specifica a livello bios della tua (o delle Asus).
Thunder-74
03-08-2021, 14:28
3080 rog strix OC?
si
Nei bench AMD va benissimo. Poi le provi in gioco e devi pregare. https://youtu.be/YQCh7baXZEM Dopo mesi e mesi dal lancio delle schede hanno provveduto a migliorare la situazione. AMD se la conosci la eviti, se la conosci non ti uccide (cit )
“kyle
I stutter very badly with the 3070 as well”
:asd:
mikael84
03-08-2021, 15:39
Ciao Mike, presto detto. Sui 390W di massima menzionati sopra, 270W circa di massima come "gpu power draw".
270 watt è tantino a def. Spreme tanto a livello di core.
Ok grazie. Sì a vdef ci arrivo e dovrei provare a mettere il bios da 450W...mentre se vado di undervolt il problema non si pone più :)
Proverò a controllare meglio questa cosa della frequenza nel caso di altri bench.
A meno che sia una cosa specifica a livello bios della tua (o delle Asus).
State un tantino attenti a questi valori, soprattutto su ALI non grandissimi. Aggiungi sempre una tolleranza del 20 e spesso oltre % di picco, non visibile sui software.
Mentre via software vedi 450, in realtà con oscilloscopi vedresti spesso toccare 550watt:)
TigerTank
03-08-2021, 15:55
State un tantino attenti a questi valori, soprattutto su ALI non grandissimi. Aggiungi sempre una tolleranza del 20 e spesso oltre % di picco, non visibile sui software.
Mentre via software vedi 450, in realtà con oscilloscopi vedresti spesso toccare 550watt:)
Sì infatti alla fine evito...o lo avrei già flashato ma non me la sento già a priori avendo la vga ad aria(anche se il dissipatore si comporta bene) ed essendo appunto una generazione calorosa ed energivora :D
amon.akira
03-08-2021, 16:01
Ok grazie. Sì a vdef ci arrivo e dovrei provare a mettere il bios da 450W...mentre se vado di undervolt il problema non si pone più :)
Proverò a controllare meglio questa cosa della frequenza nel caso di altri bench.
A meno che sia una cosa specifica a livello bios della tua (o delle Asus).
penso di averli provati tutti i bios delle 2x8pin e si comportano tutti uguale, ...il migliore era quello della aorus master v1...ora però per via del resizable bar ho l originale tuf :P
ho avuto modo di provare anche delle gigabyte gaming msi trio e suprim sempre 3080, è proprio ampere ad essere cosi...con turing invece perdevi 4-5step ad aria
Dattofree
03-08-2021, 17:52
“kyle
I stutter very badly with the 3070 as well”
:asd:
Io le ho provate tutte e sinceramente non ho mai visto niente di peggio della gestione del software da parte di Amd. Ma qui siamo in un'altra discussione e frega il giusto.
demonangel
03-08-2021, 18:24
Ho provato prima un giro di time Spy con Icue aperto...poi un secondo giro col solo Icue chiuso.
La GPU non ha avuto benefici, metre è incrementato di qualche centinaio di punti il valore della CPU.
Visto questo, Icue lo tengo attivo.
https://thumbs2.imgbox.com/07/6b/sgFTsMFE_t.jpg (https://imgbox.com/sgFTsMFE)
Ok grazie. Sì a vdef ci arrivo e dovrei provare a mettere il bios da 450W...mentre se vado di undervolt il problema non si pone più :)
Proverò a controllare meglio questa cosa della frequenza nel caso di altri bench.
A meno che sia una cosa specifica a livello bios della tua (o delle Asus).
Ti confermo che la curva dei tagli è più o meno come quella postata prima,che è alquanto bizzarra,conviene tenere la vga a 55 gradi invece di 50 gradi per es
E a liquido è davvero un bella menata
Flasha tranquillo il bios da 450W alla fine è ufficiale Evga,con un eseguibile in 5min hai fatto,se serve lo sfrutti se no ti tieni i Watt di scorta
TigerTank
03-08-2021, 20:37
penso di averli provati tutti i bios delle 2x8pin e si comportano tutti uguale, ...il migliore era quello della aorus master v1...ora però per via del resizable bar ho l originale tuf :P
ho avuto modo di provare anche delle gigabyte gaming msi trio e suprim sempre 3080, è proprio ampere ad essere cosi...con turing invece perdevi 4-5step ad aria
Grazie :)
Ti confermo che la curva dei tagli è più o meno come quella postata prima,che è alquanto bizzarra,conviene tenere la vga a 55 gradi invece di 50 gradi per es
E a liquido è davvero un bella menata
Flasha tranquillo il bios da 450W alla fine è ufficialeEvga,con un eseguibile in 5min hai fatto,se serve lo sfrutti se no ti tieni i Watt di scorta
Grazie :)
Guarda alla fine non è ho nemmeno bisogno...se in prevalenza uso il profilo a 950mV, sto vedendo che la scheda non si avvicina più ai 400W manco tirata al massimo. Vedrò man mano con gli altri giochi.
Ho provato prima un giro di time Spy con Icue aperto...poi un secondo giro col solo Icue chiuso.
La GPU non ha avuto benefici, metre è incrementato di qualche centinaio di punti il valore della CPU.
Visto questo, Icue lo tengo attivo.
https://thumbs2.imgbox.com/07/6b/sgFTsMFE_t.jpg (https://imgbox.com/sgFTsMFE)
Però nei tuoi screen noto che hai dei salti consistenti sulla linea viola(vram?)
Io faccio un pelo meno ma le frequenze mi restano regolarissime:
http://i.imgur.com/o8omUQ1l.jpg (https://imgur.com/o8omUQ1)
Prova a calare un pò le vram...non vorrei non siano stabili. Tanto il guadagno è nullo.
amon.akira
03-08-2021, 20:41
Guarda alla fine non è ho nemmeno bisogno...se in prevalenza uso il profilo a 950mV, sto vedendo che la scheda non si avvicina più ai 400W manco tirata al massimo. Vedrò man mano con gli altri giochi.
se hai metro exoduss enhanced fatti un giro, dovrebbe spremerla per bene :P
TigerTank
03-08-2021, 20:42
se hai metro exoduss enhanced fatti un giro, dovrebbe spremerla per bene :P
Sì lo avevo già giocato con la 2080 ma non la enhanced ;)
demonangel
03-08-2021, 20:49
Grazie :)
Grazie :)
Guarda alla fine non è ho nemmeno bisogno...se in prevalenza uso il profilo a 950mV, sto vedendo che la scheda non si avvicina più ai 400W manco tirata al massimo. Vedrò man mano con gli altri giochi.
Però nei tuoi screen noto che hai dei crolli consistenti sulla vram...
Io faccio un pelo meno ma le frequenze mi restano regolarissime:
http://i.imgur.com/o8omUQ1l.jpg (https://imgur.com/o8omUQ1)
Prova a calare un pò le vram...non vorrei non siano stabili. Tanto il guadagno è nullo.
In verità nel grafico la frequenza delle vram è stabile... forse hai visto la linea Viola altalenante.. ma quella indica la frequenza della CPU
TigerTank
03-08-2021, 20:53
In verità nel grafico la frequenza delle vram è stabile... forse hai visto la linea Viola altalenante.. ma quella indica la frequenza della CPU
Vero, ho visto adesso la legenda. :D
Io in genere nei bench setto prima in windows "prestazioni elevate" nel risparmio energetico perchè di default ho "bilanciato" + risparmi attivi :)
demonangel
03-08-2021, 21:00
Vero, ho visto adesso la legenda. :D
Io in genere nei bench setto prima in windows "prestazioni elevate" nel risparmio energetico perchè di default ho "bilanciato" + risparmi attivi :)
Sisi...fai bene... si hanno punteggi migliori nel bench...io l'ho fatto partire così alla buona come lo tengo di Norma... Risparmi energetici down volt 0.975 2070 che cala fino a 2040 vram +500
Leggendo le varie vicissitudini con icue mi era salita l'ansia di provarlo attivo e disattivo. Fortunatamente non sembrano esserci grossi cambiamenti.
Secondo me' Msi afterburner che Ciocca con le 3080ti ...troppo nuove per la beta in circolazione
FrancoBit
04-08-2021, 08:20
Sisi...fai bene... si hanno punteggi migliori nel bench...io l'ho fatto partire così alla buona come lo tengo di Norma... Risparmi energetici down volt 0.975 2070 che cala fino a 2040 vram +500
Leggendo le varie vicissitudini con icue mi era salita l'ansia di provarlo attivo e disattivo. Fortunatamente non sembrano esserci grossi cambiamenti.
Secondo me' Msi afterburner che Ciocca con le 3080ti ...troppo nuove per la beta in circolazione
La problematica con iCue è capitata a me, ma è causato dalle strische Corsair LS100 che vanno in sync con lo schermo (tipo ambilight). Il programma utilizza parte delle risorse della scheda video per fare l'effetto e mi fa perdere un 2k punti. Disattivandolo invece tutto regolare.
ROBHANAMICI
04-08-2021, 13:48
Ma infatti è quello il problema che non sono stati rilasciati msi ab aggiornati alla nuove 3070ti e 3080ti. Infatti se non ricordo male l'ultima beta era stata rilasciata prima dell'uscita di queste schede, e poi parliamo sempre per l'appunto di una beta.
E' uscito un nuovo icue comunque ;) , sorry fine ot
TigerTank
04-08-2021, 15:29
La problematica con iCue è capitata a me, ma è causato dalle strische Corsair LS100 che vanno in sync con lo schermo (tipo ambilight). Il programma utilizza parte delle risorse della scheda video per fare l'effetto e mi fa perdere un 2k punti. Disattivandolo invece tutto regolare.
Vediamo se la cosa continua quando arriverà la nuova versione ufficiale :)
Ma infatti è quello il problema che non sono stati rilasciati msi ab aggiornati alla nuove 3070ti e 3080ti. Infatti se non ricordo male l'ultima beta era stata rilasciata prima dell'uscita di queste schede, e poi parliamo sempre per l'appunto di una beta.
E' uscito un nuovo icue comunque ;) , sorry fine ot
Eh ma è successo anche con le 3080.
Piccola parentesi: su Prime Gaming c'è Battlefield 5 riscattabile gratis su Origin.
fraussantin
04-08-2021, 18:54
Il colorato ( RGB) passa di moda col tempo il nero ..( emm) marrone , andrà sempre....
https://videocardz.com/newz/asus-developing-geforce-rtx-3070-with-noctua-cooling-solution
TigerTank
04-08-2021, 20:32
Il colorato ( RGB) passa di moda col tempo il nero ..( emm) marrone , andrà sempre....
https://videocardz.com/newz/asus-developing-geforce-rtx-3070-with-noctua-cooling-solution
Ah beh per chi guarda molto alle prestazioni e poco all'estetica potrebbe essere interessante :D
Alla fine Noctua mi pare anche l'unica azienda che non abbia prodotto ventole leddose.
ROBHANAMICI
04-08-2021, 21:30
Vediamo se la cosa continua quando arriverà la nuova versione ufficiale :)
Eh ma è successo anche con le 3080.
Piccola parentesi: su Prime Gaming c'è Battlefield 5 riscattabile gratis su Origin.
Si ma io mi riferivo in modo particolare al problema dei tagli anche a temp non elevatissime, non a quello dei punteggi nel 3dmark in se anche se ovviamente è connesso.
Thunder-74
05-08-2021, 07:07
Il colorato ( RGB) passa di moda col tempo il nero ..( emm) marrone , andrà sempre....
https://videocardz.com/newz/asus-developing-geforce-rtx-3070-with-noctua-cooling-solution
se qualcuno la prende e posta l'acquisto, lo metto subito nella black list :banned:
se qualcuno la prende e posta l'acquisto, lo metto subito nella black list :banned:
Ma sono fantastiche! solo per le ventole io mi ci farei un rig!
Micropoint_ITA
05-08-2021, 07:53
Ragazzi volevo solo aggiornarvi che nella nuova configurazione la 3080ti ci sta benissimo ;)
https://ibb.co/JQJp0Wz
https://ibb.co/xjYbS7T
https://ibb.co/VWdyYrJ
https://ibb.co/bFPzD3C
L'unica cosa che sono dovuto impazzire è stato l'AIO , ho dovuto metterlo per forza in verticale davanti (non sopra) perché non ci stava sopra.
Inoltre, sopra, le ventole sono due e non tre dato che la terza non avrebbe avuto spazio a causa del tubo che esce dal radiatore.
bronzodiriace
05-08-2021, 08:00
Per metro exodus enhanced conviene utilizzare il file dlss del gioco o utilizzare un altro?
Mentre per cyberpunk meglio quello di rainbow six o uno più nuovo?
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Ragazzi volevo solo aggiornarvi che nella nuova configurazione la 3080ti ci sta benissimo ;)
https://ibb.co/JQJp0Wz
https://ibb.co/xjYbS7T
https://ibb.co/VWdyYrJ
https://ibb.co/bFPzD3C
L'unica cosa che sono dovuto impazzire è stato l'AIO , ho dovuto metterlo per forza in verticale davanti (non sopra) perché non ci stava sopra.
Inoltre, sopra, le ventole sono due e non tre dato che la terza non avrebbe avuto spazio a causa del tubo che esce dal radiatore.
Bello, bravo un grande classico, mi piace, senza lucette mi piace anche di più!
Unica pecca la scheda in orizzontale, secondo me in verticale era il top!
Thunder-74
05-08-2021, 08:15
Ma sono fantastiche! solo per le ventole io mi ci farei un rig!
:banned:
;)
Ragazzi volevo solo aggiornarvi che nella nuova configurazione la 3080ti ci sta benissimo ;)
https://ibb.co/JQJp0Wz
https://ibb.co/xjYbS7T
https://ibb.co/VWdyYrJ
https://ibb.co/bFPzD3C
L'unica cosa che sono dovuto impazzire è stato l'AIO , ho dovuto metterlo per forza in verticale davanti (non sopra) perché non ci stava sopra.
Inoltre, sopra, le ventole sono due e non tre dato che la terza non avrebbe avuto spazio a causa del tubo che esce dal radiatore.
ora goditela ;)
unica cosa , sono rimasto ad osservare la prima immagine postata, non dei componenti, ma della porta dietro: cardini a sinistra e a destra :confused:
TigerTank
05-08-2021, 08:18
Si ma io mi riferivo in modo particolare al problema dei tagli anche a temp non elevatissime, non a quello dei punteggi nel 3dmark in se anche se ovviamente è connesso.
Ah beh ma quello purtroppo è normale e ormai parecchio incisivo a livello di programmazione. Se non sbaglio ormai iniziano a tagliare già sui 40°C.
se qualcuno la prende e posta l'acquisto, lo metto subito nella black list :banned:
:sofico:
Bello, bravo un grande classico, mi piace, senza lucette mi piace anche di più!
Unica pecca la scheda in orizzontale, secondo me in verticale era il top!
Eh già, in verticale, ad aria e con il vetro davanti alle ventole. Top! :D
Imho ad aria ha fatto bene a metterla così.
ROBHANAMICI
05-08-2021, 08:21
Si tagliano da temperature anche piuttosto basse, ho sentito già 2-3 persone in merito che posseggono il mio stesso modello di scheda o comunque una 3080ti
Eh già, in verticale, ad aria e con il vetro davanti alle ventole. Top! :D
Imho ad aria ha fatto bene a metterla così.
Tanto a scaldare, scalda lo stesso, l'ideale sarebbe traforare la parte in vetro ma è una bella seccatura e ci vuole qualcuno che ne capisce, comunque ho fatto un test e togliendo il vetro dal case (poi dipende anche dal tipo di case) in ultrawide si guadagnano 4-5° C al massimo in game.
Questo è un test che ho fatto con crash bandicoot 4 "ieri sera":
https://i.postimg.cc/8fGdhygV/20210804-224001.jpg (https://postimg.cc/8fGdhygV) (80°c con case e vetro)
https://i.postimg.cc/HJ5BX88X/20210804-224446.jpg (https://postimg.cc/HJ5BX88X) https://i.postimg.cc/fJtXVn90/20210804-224452.jpg (https://postimg.cc/fJtXVn90) (76°c con con vetro tolto)
Eh già, in verticale, ad aria e con il vetro davanti alle ventole. Top! :D
Imho ad aria ha fatto bene a metterla così.
Beh dai 2 cm ce li avrà tra le ventole ed il vetro no? Il pescaggio tanto in un case chiuso con l'aria calda che ricircola all'interno non cambia poi molto, io ho fatto le prove sulla mia pelle con l'O11D e la 2080Ti ad aria in verticale ed orizzontale, cambiava poco o nulla, difatti poi ho liquidato :D .
FrancoBit
05-08-2021, 08:39
Eh già, in verticale, ad aria e con il vetro davanti alle ventole. Top! :D
Imho ad aria ha fatto bene a metterla così.
Ho fatto anche io le mie prove a suo tempo quando ho ospitato nel case la 3070ti Strix. Va be che era un forno in entrambe le posizioni, però in verticale ho avuto un beneficio, la temp dell'nvme sopra il pcie. Questo perchè dalle griglie verso la mother usciva l'aria calda e andava ad aumentare anche la temperatura dell'nvme. In verticale invece, avendo anche le ventole inferiori propri sotto l'aria defluiva senza andare versola mother. Serve comunque spazio tra vetro e ventole naturalmente.
Micropoint_ITA
05-08-2021, 08:54
Bello, bravo un grande classico, mi piace, senza lucette mi piace anche di più!
Unica pecca la scheda in orizzontale, secondo me in verticale era il top!
Eh in verticale sarebbe stata fantastica, si.
Discorso temperature aria fredda che passa dal radiatore e la butta calda nel case come ti sembra? Non avevo altre soluzioni purtroppo.
Comunque il vetro (per fortuna) è un fumè molto ma molto scuro, si intravede poco la componentistica, quindi anche le ventole dentro non sparano luci forti, eccetto ovviamente le tre anteriori. Comunque le imposterò tutte sui colori della CPU in base alle temperature (blu freddo, verde normale, arancio e rosso)
Micropoint_ITA
05-08-2021, 08:59
:banned:
;)
ora goditela ;)
unica cosa , sono rimasto ad osservare la prima immagine postata, non dei componenti, ma della porta dietro: cardini a sinistra e a destra :confused:
Si :rolleyes:
Ho dovuto cambiare la porta ho messo la blindata dovrò lavorare per togliere i cardini della vecchia porta :)
Micropoint_ITA
05-08-2021, 09:01
Ah beh ma quello purtroppo è normale e ormai parecchio incisivo a livello di programmazione. Se non sbaglio ormai iniziano a tagliare già sui 40°C.
:sofico:
Eh già, in verticale, ad aria e con il vetro davanti alle ventole. Top! :D
Imho ad aria ha fatto bene a metterla così.
Heilà , intendi "a liquido" giusto? Non avevo altre soluzioni per montare l'AIO. Tornando indietro avrei preso un 240 mm così mi dava meno grattacapi
TigerTank
05-08-2021, 09:06
Tanto a scaldare, scalda lo stesso, l'ideale sarebbe traforare la parte in vetro ma è una bella seccatura e ci vuole qualcuno che ne capisce, comunque ho fatto un test e togliendo il vetro dal case (poi dipende anche dal tipo di case) in ultrawide si guadagnano 4-5° C al massimo in game.
Questo è un test che ho fatto con crash bandicoot 4 "ieri sera":
https://i.postimg.cc/8fGdhygV/20210804-224001.jpg (https://postimg.cc/8fGdhygV) (80°c con case e vetro)
https://i.postimg.cc/HJ5BX88X/20210804-224446.jpg (https://postimg.cc/HJ5BX88X) https://i.postimg.cc/fJtXVn90/20210804-224452.jpg (https://postimg.cc/fJtXVn90) (76°c con con vetro tolto)
Eh dici poco...4-5°C in meno quando parliamo di 76°C invece di 80°C imho e tanta roba :D
Io comunque ormai è un bel pezzo che tengo il case aperto.
Comunque sì, la vga in verticale è esteticamente bella, soprattutto per dare visibilità ad un fullcover in plexi ma ovviamente se invece parliamo di vga ad aria con dissipatore maggiorato anche in altezza e un case middle tower, bisogna fare i conti con l'adeguatezza del case e gli ingombri "laterali".
Heilà , intendi "a liquido" giusto? Non avevo altre soluzioni per montare l'AIO. Tornando indietro avrei preso un 240 mm così mi dava meno grattacapi
Ti è uscito un bel lavoro :)
Poi se consideri una preoccupazione il fatto di avere le ventole in immissione che passano attraverso il rad...nessuno ti vieta di provare a mettere anche quella posteriore in immissione, tanto hai le 2 superiori in espulsione.
Micropoint_ITA
05-08-2021, 09:46
Eh dici poco...4-5°C in meno quando parliamo di 76°C invece di 80°C imho e tanta roba :D
Io comunque ormai è un bel pezzo che tengo il case aperto.
Comunque sì, la vga in verticale è esteticamente bella, soprattutto per dare visibilità ad un fullcover in plexi ma ovviamente se invece parliamo di vga ad aria con dissipatore maggiorato anche in altezza e un case middle tower, bisogna fare i conti con l'adeguatezza del case e gli ingombri "laterali".
Ti è uscito un bel lavoro :)
Poi se consideri una preoccupazione il fatto di avere le ventole in immissione che passano attraverso il rad...nessuno ti vieta di provare a mettere anche quella posteriore in immissione, tanto hai le 2 superiori in espulsione.
Anche, posso provare..comunque è impressionante quanto sia silenzioso. La mia configurazione vecchia sembrava un aspirapolvere, una volta accesa.
Cutter90
05-08-2021, 12:35
Ragazzi volevo solo aggiornarvi che nella nuova configurazione la 3080ti ci sta benissimo ;)
https://ibb.co/JQJp0Wz
https://ibb.co/xjYbS7T
https://ibb.co/VWdyYrJ
https://ibb.co/bFPzD3C
L'unica cosa che sono dovuto impazzire è stato l'AIO , ho dovuto metterlo per forza in verticale davanti (non sopra) perché non ci stava sopra.
Inoltre, sopra, le ventole sono due e non tre dato che la terza non avrebbe avuto spazio a causa del tubo che esce dal radiatore.
Case orrendo (gusti), ma ottima configurazione, non c'è che dire.
Per l AIO da 360 io nel mio proprio per evitare di doverlo mettere davanti ho preso il 280 e l'ho messo sopra. Tanto tra 360 e 280 cambia poco il discorso temperature nel gaming. Così ho lasciato davanti con 3 da 140.
Cmq si, se hai posto e vedi che le temp della gpu sono alte, metti 2 ventole dietro il radiatore che aspirano da fuori
Micropoint_ITA
05-08-2021, 12:37
Case orrendo (gusti), ma ottima configurazione, non c'è che dire.
Per l AIO da 360 io nel mio proprio per evitare di doverlo mettere davanti ho preso il 280 e l'ho messo sopra. Tanto tra 360 e 280 cambia poco il discorso temperature nel gaming. Così ho lasciato davanti con 3 da 140.
Cmq si, se hai posto e vedi che le temp della gpu sono alte, metti 2 ventole dietro il radiatore che aspirano da fuori
Scusami, perché orrendo? Ho scelto questo per avere un case discreto da mettere in salotto, e per quanto riguarda l'airflow sembra essere il migliore
FrancoBit
05-08-2021, 13:15
Scusami, perché orrendo? Ho scelto questo per avere un case discreto da mettere in salotto, e per quanto riguarda l'airflow sembra essere il migliore
A me la nuova serie dei Corsair piace, hanno un ottimo airflow e anche spazio di manovra per il cable management.
TigerTank
05-08-2021, 13:29
A me la nuova serie dei Corsair piace, hanno un ottimo airflow e anche spazio di manovra per il cable management.
L'unica cosa che non mi piace di quel case è la grigliatura. L'evessero fatta a maglie esagonali, imho top :)
Comunque non ce n'è, i case traforati, specialmente con situazioni calorose a cpu e vga, sono ancora il meglio.
Kostanz77
05-08-2021, 13:31
Ragazzi volevo solo aggiornarvi che nella nuova configurazione la 3080ti ci sta benissimo ;)
https://ibb.co/JQJp0Wz
https://ibb.co/xjYbS7T
https://ibb.co/VWdyYrJ
https://ibb.co/bFPzD3C
L'unica cosa che sono dovuto impazzire è stato l'AIO , ho dovuto metterlo per forza in verticale davanti (non sopra) perché non ci stava sopra.
Inoltre, sopra, le ventole sono due e non tre dato che la terza non avrebbe avuto spazio a causa del tubo che esce dal radiatore.
Tutto molto bello, stona un po' l'Arcitc
questa è la mia con la nuova GPU
https://imgur.com/a/F3gUYcl
https://imgur.com/a/ksBUNfP
https://imgur.com/a/oUkTdyk
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
ROBHANAMICI
05-08-2021, 13:39
Salve, ho un amico che possiede una 3090 il quale, montando la scheda in questione (è una zotac trinity) non riesce a bootare sul sistema operativo (utilizza linux) nel senso che il pc gli si riavvia sempre. A cosa potrebbe essere dovuto il problema? Questo mio amico collega questa problema, per l'appunto, alla gpu.
Tutto molto bello, stona un po' l'Arcitc
Ma l'arctic è uno dei top, poi il modello argb fa la sua :oink: figura, è un pò bruttino il suo dissipatore, quello si.
Micropoint_ITA
05-08-2021, 13:55
A me la nuova serie dei Corsair piace, hanno un ottimo airflow e anche spazio di manovra per il cable management.
Cable management ottimo, nulla da dire, il vetro tra l'altro è bello spesso, non fragile, non discuto sull'opinione estetica ma vorrei capire cosa ha di così brutto, forse a qualcuno non piace così spigoloso? Boh
Micropoint_ITA
05-08-2021, 13:57
Tutto molto bello, stona un po' l'Arcitc
questa è la mia con la nuova GPU
https://imgur.com/a/F3gUYcl
https://imgur.com/a/ksBUNfP
https://imgur.com/a/oUkTdyk
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Si lo so l'arctic non è il top del design, soprattutto dove il dissi attacca al processore, troppo "spaziale" poco elegante, il vero problema è un altro in realtà , non sincronizza con le ventole RGB di Corsair quindi per fare un colore assolutamente identico devo impostare colori fissi. Ma tanto l'arcobaleno non mi fa impazzire a prescindere. Terrò tutto bianco.
PS: bellissima configurazione, ma la scheda, pende troppo o sbaglio?
Thunder-74
05-08-2021, 14:08
se avessi mai dovuto optare per un AIO, sarei andato di EK, con il modello ELITE da 360, ti danno 6 ventole... Vardar ottime per i rad..
https://i.imgur.com/cR6DuN6l.jpg
archaon89x
05-08-2021, 14:22
ho acquistato un alimentatore rm850x , è il primo full modulare che ho.
per alimentare la mia Rtx3080 posso usare 2 cavi cpu 4+4 invece di 2 pcie 6+2?
essendo sdoppiati danno impiccio nel case
FrancoBit
05-08-2021, 14:25
ho acquistato un alimentatore rm850x , è il primo full modulare che ho.
per alimentare la mia Rtx3080 posso usare 2 cavi cpu 4+4 invece di 2 pcie 6+2?
essendo sdoppiati danno impiccio nel case
Userei quelli corretti per sicurezza. Piuttosto puoi comprarti dei cavi sleeve, tipo Cablemod per le 2 pcie.
ROBHANAMICI
05-08-2021, 14:32
https://i.postimg.cc/8fGdhygV/20210804-224001.jpg (https://postimg.cc/8fGdhygV) (80°c con case e vetro)
https://i.postimg.cc/HJ5BX88X/20210804-224446.jpg (https://postimg.cc/HJ5BX88X) https://i.postimg.cc/fJtXVn90/20210804-224452.jpg (https://postimg.cc/fJtXVn90) (76°c con con vetro tolto)
Prendi questi qui che sono top: hardwire italia ;)
dinamite2
05-08-2021, 14:32
se avessi mai dovuto optare per un AIO, sarei andato di EK, con il modello ELITE da 360, ti danno 6 ventole... Vardar ottime per i rad..
https://i.imgur.com/cR6DuN6l.jpg
lo avevo io, prima di passare al custom liquido. Davvero eccezionale come AIO, e anche esteticamente a me piaceva molto :)
archaon89x
05-08-2021, 14:36
ok perfetto ,vedo se ci sono anche rgb , come se mancassero nel mio case xD
FrancoBit
05-08-2021, 14:42
ok perfetto ,vedo se ci sono anche rgb , come se mancassero nel mio case xD
Sbizzarrisciti lol. Occhio solo a non prendere cinesate, vale la pena investirci un deca in più ma essere sicuri della qualità.
Cutter90
05-08-2021, 14:44
Scusami, perché orrendo? Ho scelto questo per avere un case discreto da mettere in salotto, e per quanto riguarda l'airflow sembra essere il migliore
Con quel griglione è proprio brutto. Ma esteticamente parlo. sembra una cella :)
Ma va a gusti
ROBHANAMICI
05-08-2021, 14:45
ok perfetto ,vedo se ci sono anche rgb , come se mancassero nel mio case xD
Prendi quelli hardwire il resto è zozzeria.
Kostanz77
05-08-2021, 14:50
Si lo so l'arctic non è il top del design, soprattutto dove il dissi attacca al processore, troppo "spaziale" poco elegante, il vero problema è un altro in realtà , non sincronizza con le ventole RGB di Corsair quindi per fare un colore assolutamente identico devo impostare colori fissi. Ma tanto l'arcobaleno non mi fa impazzire a prescindere. Terrò tutto bianco.
PS: bellissima configurazione, ma la scheda, pende troppo o sbaglio?
no no ho messo anche il piedistallo
https://imgur.com/a/lrGMUUn
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Micropoint_ITA
05-08-2021, 14:55
Con quel griglione è proprio brutto. Ma esteticamente parlo. sembra una cella :)
Ma va a gusti
Ah ok la griglia, pensavo più che altro dal lato pratico, io l'ho scelto proprio per la dissipazione. comunque fidati che l'effetto ottico dal vivo è ben diverso, e con ventole spente manco si nota così tanto. Se riesco già stasera testo Exodus e vediamo se ho risolto
Micropoint_ITA
05-08-2021, 15:02
no no ho messo anche il piedistallo
https://imgur.com/a/lrGMUUn
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Allora è un effetto ottico. Comunque bel sistema. quando succederà che mi farò il PC nel mio studio (nella nuova casa) voglio fare qualcosa del genere, dato che sarà più una sala a tema .
Cutter90
05-08-2021, 15:16
Ah ok la griglia, pensavo più che altro dal lato pratico, io l'ho scelto proprio per la dissipazione. comunque fidati che l'effetto ottico dal vivo è ben diverso, e con ventole spente manco si nota così tanto. Se riesco già stasera testo Exodus e vediamo se ho risolto
No no io parlavo solo del alto estetico. Sia chiaro. Lato dissipazione sembra tanta roba
Kostanz77
05-08-2021, 15:25
Allora è un effetto ottico. Comunque bel sistema. quando succederà che mi farò il PC nel mio studio (nella nuova casa) voglio fare qualcosa del genere, dato che sarà più una sala a tema .
grazie
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Eccomi:D
http://i.imgur.com/LVxy7NMl.jpg (https://imgur.com/LVxy7NM)
http://i.imgur.com/Guaq50fl.jpg (https://imgur.com/Guaq50f)
Kostanz77
05-08-2021, 19:52
Eccomi:D
http://i.imgur.com/LVxy7NMl.jpg (https://imgur.com/LVxy7NM)
http://i.imgur.com/Guaq50fl.jpg (https://imgur.com/Guaq50f)
quanto ti è costata?
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Thunder-74
05-08-2021, 20:24
Eccomi:D
http://i.imgur.com/LVxy7NMl.jpg (https://imgur.com/LVxy7NM)
http://i.imgur.com/Guaq50fl.jpg (https://imgur.com/Guaq50f)
Finalmente !!!
Guarda che t ho trovato nella sala dove mi alleno … secchione e pavimento Noctua :fagiano:
https://uploads.tapatalk-cdn.com/20210805/4dd3d398f3e7b27b402201e414d0550e.jpg
Una persecuzione
Inviato dal mio iPhone X utilizzando Tapatalk
Micropoint_ITA
05-08-2021, 20:29
Io non ne vengo più a capo.
Qualcuno forse ricorderà che ho cambiato il mio 6700k con questo 5800x perché la mia 3080ti ha risultati bassi anche in 4k.
Ebbene...
Faccio peggio con questa nuova CPU, nel bench di Metro Exodus Enhanced Edition Benchmark tool.
Tutto ad Extreme a 2160p.
quanto ti è costata?
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
2050 euretti
Finalmente !!!
Guarda che t ho trovato nella sala dove mi alleno … secchione e pavimento Noctua :fagiano:
https://uploads.tapatalk-cdn.com/20210805/4dd3d398f3e7b27b402201e414d0550e.jpg
Una persecuzione
Inviato dal mio iPhone X utilizzando Tapatalk
Bello il secchione, lo voglio! Ci faccio una build dentro.
Thunder-74
05-08-2021, 20:45
2050 euretti
Bello il secchione, lo voglio! Ci faccio una build dentro.
Hahahahah se non mi vedono te lo rubo e te lo spedisco :D
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
05-08-2021, 20:59
Finalmente !!!
Guarda che t ho trovato nella sala dove mi alleno … secchione e pavimento Noctua :fagiano:
Una persecuzione
No ma....pure le piastrelle... :asd:
Io non ne vengo più a capo.
Qualcuno forse ricorderà che ho cambiato il mio 6700k con questo 5800x perché la mia 3080ti ha risultati bassi anche in 4k.
Ebbene...
Faccio peggio con questa nuova CPU, nel bench di Metro Exodus Enhanced Edition Benchmark tool.
Tutto ad Extreme a 2160p.
Controlla bene perchè siamo in una fase in cui sembra si verifichino risultati un pò anomali e si sospetta possa essere anche AB al momento ancora immaturo, specialmente con le Ti.
Prova a benchare solo a livello drivers, senza AB a gestire, togliendolo dall'avvio automatico(o dal background). E chiudendo il chiudibile in quanto ad altri software di gestione led e simili.
Micropoint_ITA
05-08-2021, 21:19
No ma....pure le piastrelle... :asd:
Controlla bene perchè siamo in una fase in cui sembra si verifichino risultati un pò anomali e si sospetta possa essere anche AB al momento ancora immaturo, specialmente con le Ti.
Prova a benchare solo a livello drivers, senza AB a gestire, togliendolo dall'avvio automatico(o dal background). E chiudendo il chiudibile in quanto ad altri software di gestione led e simili.
Nel dubbio riformatto tutto. Anche perché devo fare un po' di pulizia. Comunque assurda sta cosa.
Tra l'altro lanciando il bench a schermo mi esce "non rientro nei requisiti richiesti".
Bah,
Sono 55 fps contro i 58 del 6700k a:
4k
Setting EXTREME
dlss QUALITY
Riflessi RAYTRACED (non ibridi)
Vrs 1x
Hairworks OFF
Advance phisic OFF.
Kostanz77
05-08-2021, 21:36
Nel dubbio riformatto tutto. Anche perché devo fare un po' di pulizia. Comunque assurda sta cosa.
Tra l'altro lanciando il bench a schermo mi esce "non rientro nei requisiti richiesti".
Bah,
Sono 55 fps contro i 58 del 6700k a:
4k
Setting EXTREME
dlss QUALITY
Riflessi RAYTRACED (non ibridi)
Vrs 1x
Hairworks OFF
Advance phisic OFF.
si pialla tutto e fai installazione pulita di W10
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Micropoint_ITA
05-08-2021, 21:45
si pialla tutto e fai installazione pulita di W10
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Esatto. Poi vabbè, Exodus non è che sia un Capolavoro di ottimizzazione...
Cp77 ha un benchmark integrato?
Dattofree
05-08-2021, 21:59
Nel dubbio riformatto tutto. Anche perché devo fare un po' di pulizia. Comunque assurda sta cosa.
Tra l'altro lanciando il bench a schermo mi esce "non rientro nei requisiti richiesti".
Bah,
Sono 55 fps contro i 58 del 6700k a:
4k
Setting EXTREME
dlss QUALITY
Riflessi RAYTRACED (non ibridi)
Vrs 1x
Hairworks OFF
Advance phisic OFF.
La forza di un processore in gioco si misura in FHD. In 4K quanto credi incida un 5800 rispetto ad un 6700k? Se poi lo hai anche overcloccato allora è nulla.
Micropoint_ITA
06-08-2021, 06:26
La forza di un processore in gioco si misura in FHD. In 4K quanto credi incida un 5800 rispetto ad un 6700k? Se poi lo hai anche overcloccato allora è nulla.
Beh, oddio...
....
Ho anche io il tuo stesso case, per quanto riguarda AIO, eventualmente hai provato a mettere le ventole nella parte superiore al di fuori dal case?
Giusto per capirci, nello spazio che c'è tra il filtro magnetico e la griglia superiore che si rimuove.
Ieri ho visto la recensione su Guru3D della 3080Ti Amp Holo e il punteggio grafico di Timespy è più o meno il linea con i miei intorno ai 19000 punti.
Avendo solamente due connettori da 8pin è molto limitata.
Micropoint_ITA
06-08-2021, 07:45
Ho anche io il tuo stesso case, per quanto riguarda AIO, eventualmente hai provato a mettere le ventole nella parte superiore al di fuori dal case?
Giusto per capirci, nello spazio che c'è tra il filtro magnetico e la griglia superiore che si rimuove.
Ieri ho visto la recensione su Guru3D della 3080Ti Amp Holo e il punteggio grafico di Timespy è più o meno il linea con i miei intorno ai 19000 punti.
Avendo solamente due connettori da 8pin è molto limitata.
Si provato in ogni caso poi però non si montano le 3 ventole 120, comunque ieri ho visto che le temperature sono ottime in ogni caso , sia sulla CPU che la GPU (la CPU ora rimane più fredda perché pesca aria in entrata, la GPU invece dovrebbe scaldare di più ora ma invece temperature come le precedenti, vuoi per le dimensione più generose del case).
19000 con la 3080ti si, confermo, io in downvolt senza toccare le memorie con curva (mi pare ) 975v a 1900mhz 19200 punti .
Io però non ho capito una cosa: a parità di curva frequenze (MHz) aumentare il voltaggio può dare risultati migliori (ovvio, aumentando di conseguenza le temperature)?
Tu che scheda hai?
Beh, oddio...
Ho provato la rtx 3080 e la 2070 super in 4k con un ryzen 5 2400G e con un ryzen 7 3700x, a conti fatti potrei tranquillamente giocare con il 2400g in 4k e nessuno se ne accorgerebbe...
Micropoint_ITA
06-08-2021, 08:14
Ho provato la rtx 3080 e la 2070 super in 4k con un ryzen 5 2400G e con un ryzen 7 3700x, a conti fatti potrei tranquillamente giocare con il 2400g in 4k e nessuno se ne accorgerebbe...
I cali ai minimi forse non ci fa caso nessuno, fatto sta che in rdr2 ho situazioni simili allo stuttering che con il 5800x non ho.
I cali ai minimi forse non ci fa caso nessuno, fatto sta che in rdr2 ho situazioni simili allo stuttering che con il 5800x non ho.
In linea di massima chiaramente, poi dipende dal titolo, ma tu mi citi un gioco che piega anche una rtx 3090 in 4k:D :D :D
sertopica
06-08-2021, 08:49
La forza di un processore in gioco si misura in FHD. In 4K quanto credi incida un 5800 rispetto ad un 6700k? Se poi lo hai anche overcloccato allora è nulla.
Scordi il dlss ed il fatto che i giochi rt richiedono una cpu prestante per dare il meglio. Senza considerare che i minimi ne traggono in ogni caso giovamento con una nuova architettura cpu. Forse non tanto a 4k ma a 1440p si.
ROBHANAMICI
06-08-2021, 08:51
19000 con la 3080ti si, confermo, io in downvolt senza toccare le memorie con curva (mi pare ) 975v a 1900mhz 19200 punti .
E' pochino con la strix edition, puoi salire e di molto, i tagli, come si diceva, sono micidiali con queste ti anche a basse temp.
Sniper88
06-08-2021, 08:58
Buongiorno! Qualcuno ha una Zotac Trinity, oppure una AMP Holo?
Se sì, sono buone schede? Grazie! :)
ROBHANAMICI
06-08-2021, 09:00
Non tanto, soprattutto per il sistema di dissipazione, ma se non lo devi overcloccare vanno benissimo
Sniper88
06-08-2021, 09:03
Non tanto, soprattutto per il sistema di dissipazione, ma se non lo devi overcloccare vanno benissimo
Grazie, Rob! Come temevo!
ROBHANAMICI
06-08-2021, 09:11
de nada :)
Ale55andr0
06-08-2021, 09:18
Eccomi:D
http://i.imgur.com/LVxy7NMl.jpg (https://imgur.com/LVxy7NM)
no ma...la cintura di sicurezza :rotfl:
cmq così si cappotta con una frenata :O
Cutter90
06-08-2021, 09:47
La forza di un processore in gioco si misura in FHD. In 4K quanto credi incida un 5800 rispetto ad un 6700k? Se poi lo hai anche overcloccato allora è nulla.
Sbagliato. La questione 6700k l'abbiamo già affrontato. Ho fatto una marea di test quando lo avevo e in 4k in alcuni giorchi moderni con la 3090-3080 ti fa da collo di bottiglia e alle volte non poco. In cp passando dal 6700k al 10900k ho guadagnato 20 fps con dlss performance e il resto al massimo, in 4k. In altri giochi se stai intorno ai 60 perdi 5-10 fps. Ma ti assicuro che li perdi. E il mio, ricordo, era deliddato a 4.8 fisso, quindi già tirato all'estremo.
Cutter90
06-08-2021, 09:49
Eccomi:D
http://i.imgur.com/LVxy7NMl.jpg (https://imgur.com/LVxy7NM)
http://i.imgur.com/Guaq50fl.jpg (https://imgur.com/Guaq50f)
Ohh finalmente qualcuno con una 3090... basta con sti acquisti da "poveri" :sofico: . Attendo i bench per un confronto :D :D
Jeetkundo
06-08-2021, 10:23
no ma...la cintura di sicurezza :rotfl:
cmq così si cappotta con una frenata :O
Con quello che costano meglio allacciare le cinture, non si sa mai :D
Dattofree
06-08-2021, 10:58
Sbagliato. La questione 6700k l'abbiamo già affrontato. Ho fatto una marea di test quando lo avevo e in 4k in alcuni giorchi moderni con la 3090-3080 ti fa da collo di bottiglia e alle volte non poco. In cp passando dal 6700k al 10900k ho guadagnato 20 fps con dlss performance e il resto al massimo, in 4k. In altri giochi se stai intorno ai 60 perdi 5-10 fps. Ma ti assicuro che li perdi. E il mio, ricordo, era deliddato a 4.8 fisso, quindi già tirato all'estremo.
Il tuo test è fatto tra processori Intel. Per questo hai notato importanti boost negli ultimi titoli. Lui invece lo ha fatto con Amd. Ho provato in passato alcuni test tra un 7700k e alcuni Amd seie 3xxx. C'erano casi in 2k dove andava meglio Intel.
Cutter90
06-08-2021, 11:01
Il tuo test è fatto tra processori Intel. Per questo hai notato importanti boost negli ultimi titoli. Lui invece lo ha fatto con Amd. Ho provato in passato alcuni test tra un 7700k e alcuni Amd seie 3xxx. C'erano casi in 2k dove andava meglio Intel.
Va beh, ma paragonare amd e intel direttamente 1 a 1 è molto complesso a parer mio. Ci sono tantissime variabili da tenere in cosiderazione. Core, frequenza, titolo ottimizzato amd o intel ecc ecc
Micropoint_ITA
06-08-2021, 11:10
In linea di massima chiaramente, poi dipende dal titolo, ma tu mi citi un gioco che piega anche una rtx 3090 in 4k:D :D :D
Beh, l'obiettivo mio è di giocare tripla A belli grossi, altrimenti rimanevo con la mia 1080ti...
Dattofree
06-08-2021, 11:12
Va beh, ma paragonare amd e intel direttamente 1 a 1 è molto complesso a parer mio. Ci sono tantissime variabili da tenere in cosiderazione. Core, frequenza, titolo ottimizzato amd o intel ecc ecc
Esattamente. Per questo ci possono essere titoli addirittura dove non si nota nessuna differenza anche con processori di generazioni precendenti.
Micropoint_ITA
06-08-2021, 11:14
E' pochino con la strix edition, puoi salire e di molto, i tagli, come si diceva, sono micidiali con queste ti anche a basse temp.
Oggi faccio qualche test. Secondo me tra le altre cose dovrei chiudere programmi inutili. Provo così oggi:
.salgo con le frequenze della RAM
.salgo leggermente con il core
.aumento le frequenze della GPU.
Io attualmente con i 19200 punti circa faccio 65 gradi di media. Se vedo un aumento di 5 gradi per guadagnare 500/700 punti lascio così come è che rimane più fresca.
Micropoint_ITA
06-08-2021, 11:19
Sbagliato. La questione 6700k l'abbiamo già affrontato. Ho fatto una marea di test quando lo avevo e in 4k in alcuni giorchi moderni con la 3090-3080 ti fa da collo di bottiglia e alle volte non poco. In cp passando dal 6700k al 10900k ho guadagnato 20 fps con dlss performance e il resto al massimo, in 4k. In altri giochi se stai intorno ai 60 perdi 5-10 fps. Ma ti assicuro che li perdi. E il mio, ricordo, era deliddato a 4.8 fisso, quindi già tirato all'estremo.
Ciao Cutter, non mi ricordo se ne abbiamo già parlato. Hai il benchmark di Exodus Enhanced Edition?
Se si, potrei chiederti una enorme cortesia e fare anche tu questo bench e dirmi che risultato ottieni? Tra le altre cose, io lanciando questo bench, mi appare schermata che mi dice "il mio sistema non rispetta i requisiti" , mah.
https://imgbb.com/7XTTWxt
Ovviamente con le mie stesse impostazioni.
Grazie ;)
Micropoint_ITA
06-08-2021, 11:23
Il tuo test è fatto tra processori Intel. Per questo hai notato importanti boost negli ultimi titoli. Lui invece lo ha fatto con Amd. Ho provato in passato alcuni test tra un 7700k e alcuni Amd seie 3xxx. C'erano casi in 2k dove andava meglio Intel.
In raster puro senza dlss o rtx e nei titoli che non sfruttano i multi core. POTRESTI avere ragione.
In tutti gli altri,
No.
mikael84
06-08-2021, 11:58
Ciao Cutter, non mi ricordo se ne abbiamo già parlato. Hai il benchmark di Exodus Enhanced Edition?
Se si, potrei chiederti una enorme cortesia e fare anche tu questo bench e dirmi che risultato ottieni? Tra le altre cose, io lanciando questo bench, mi appare schermata che mi dice "il mio sistema non rispetta i requisiti" , mah.
https://imgbb.com/7XTTWxt
Ovviamente con le mie stesse impostazioni.
Grazie ;)
Il 10900k su metro pare andare abbastanza di più. Inoltre, sembra abbiano avuto problemi con i minimi in solo 4k. Probabilmente bios acerbi.
Se vuoi fare un paragone, guarda qua.
https://www.computerbase.de/2020-11/amd-ryzen-5000-test/4/#diagramm-metro-exodus-3840-2160-bildpunkte
Dattofree
06-08-2021, 12:05
In raster puro senza dlss o rtx e nei titoli che non sfruttano i multi core. POTRESTI avere ragione.
In tutti gli altri,
No.
Potresti rimanere sopreso da quanto in 4k un vecchio processore tipo 7700k sia ancora molto competitivo...
ROBHANAMICI
06-08-2021, 12:09
Oggi faccio qualche test. Secondo me tra le altre cose dovrei chiudere programmi inutili. Provo così oggi:
.salgo con le frequenze della RAM
.salgo leggermente con il core
.aumento le frequenze della GPU.
Io attualmente con i 19200 punti circa faccio 65 gradi di media. Se vedo un aumento di 5 gradi per guadagnare 500/700 punti lascio così come è che rimane più fresca.
Prova fammi sapere, sono curioso di vedere qual e' il gap con la mia tuf ;)
Ohh finalmente qualcuno con una 3090... basta con sti acquisti da "poveri" :sofico: . Attendo i bench per un confronto :D :D
Mi darò sicuramente da fare :D ma non prima di domani, troppo sonno e poi sta sera sono a liquidare un 5950X +3090 di un mio amico e non ho tempo, ma nel weekend nerdeggierò di brutto brutto brutto!
Con quello che costano meglio allacciare le cinture, non si sa mai :D
Assolutamente si! :)
Cutter90
06-08-2021, 12:51
Ciao Cutter, non mi ricordo se ne abbiamo già parlato. Hai il benchmark di Exodus Enhanced Edition?
Se si, potrei chiederti una enorme cortesia e fare anche tu questo bench e dirmi che risultato ottieni? Tra le altre cose, io lanciando questo bench, mi appare schermata che mi dice "il mio sistema non rispetta i requisiti" , mah.
https://imgbb.com/7XTTWxt
Ovviamente con le mie stesse impostazioni.
Grazie ;)
Dove lo trovo il bench di Metro? Non l'ho mai visto
Cutter90
06-08-2021, 12:51
Potresti rimanere sopreso da quanto in 4k un vecchio processore tipo 7700k sia ancora molto competitivo...
Essere competitivo è un conto. Andare uguale o avere poca differenza è un altro :)
Micropoint_ITA
06-08-2021, 12:51
Dove lo trovo il bench di Metro? Non l'ho mai visto
È dentro nella cartella, lo trovi come benchmark.exe ;)
dinamite2
06-08-2021, 12:54
mi sono voluto regalare cyberpunk, la trilogia di mafia e assassin's valhalla.
Con quale inizio?
No comunque, vorrei sapere quali settaggi mettere per sfruttare al meglio cyberpunk...
Cutter90
06-08-2021, 12:54
È dentro nella cartella, lo trovi come benchmark.exe ;)
E l'epic game dove li istalla di solito?
Micropoint_ITA
06-08-2021, 12:59
E l'epic game dove li istalla di solito?
Dipende dall'ssd che hai scelto. Io ho un mio tera dedicato ai giochi
Cutter90
06-08-2021, 13:10
Dipende dall'ssd che hai scelto. Io ho un mio tera dedicato ai giochi
Si, ok. Intendevo il percorso :D
Micropoint_ITA
06-08-2021, 14:08
Si, ok. Intendevo il percorso :D
Appena arrivo a casa ti dico intanto grazie ;)
Micropoint_ITA
06-08-2021, 14:16
Il 10900k su metro pare andare abbastanza di più. Inoltre, sembra abbiano avuto problemi con i minimi in solo 4k. Probabilmente bios acerbi.
Se vuoi fare un paragone, guarda qua.
https://www.computerbase.de/2020-11/amd-ryzen-5000-test/4/#diagramm-metro-exodus-3840-2160-bildpunkte
Grazie Mike! Possibile un utente con 3090 e 5950x faccia 8 fps più di me stesse impostazioni? A me non quadra
Micropoint_ITA
06-08-2021, 14:21
Prova fammi sapere, sono curioso di vedere qual e' il gap con la mia tuf ;)
https://ibb.co/2Z81N1C
https://ibb.co/tX89VSy
Freschi di un attimo fa. A 1950mhz
Ora sono a 2ghz e ho alzato un pelo le memorie...aggiorno tra poco ...
20450 sul graphic ora.
Comunque è assurdo. ICue che gestisce le periferiche Asus mi pare che si mangia un paio di punti percentuale in questi overclock.
mikael84
06-08-2021, 14:35
Grazie Mike! Possibile un utente con 3090 e 5950x faccia 8 fps più di me stesse impostazioni? A me non quadra
In quella review le AMD scalano male, ma il gioco è multithread. Vedi per esempio le Intel come scalano. il 10900k si beve l'8/16.
Probabile che metro sia un tantino ostico, o i bios sono acerbi.
Scendendo di res, invece cambia tutto.
Micropoint_ITA
06-08-2021, 14:52
In quella review le AMD scalano male, ma il gioco è multithread. Vedi per esempio le Intel come scalano. il 10900k si beve l'8/16.
Probabile che metro sia un tantino ostico, o i bios sono acerbi.
Scendendo di res, invece cambia tutto.
Guarda, non so se è questione di pulizia dei driver, cosa che dovrò fare, ma con un 5800x faccio 55 fps, con il 6700k facevo 58 fps...stesse impostazioni di benchmark (benchmark reale, che si trova nella cartella di Exodus)
Su time Spy ovviamente i valori sulla CPU sono ben diversi, dove la 5800x vola. Anzi, calcola che ho appena messo mano al bios mettendo pure mano al sotto menù dell'overclock e ho guadagnato il 6,5% rispetto a ieri.
Cutter90
06-08-2021, 15:02
Guarda, non so se è questione di pulizia dei driver, cosa che dovrò fare, ma con un 5800x faccio 55 fps, con il 6700k facevo 58 fps...stesse impostazioni di benchmark (benchmark reale, che si trova nella cartella di Exodus)
Su time Spy ovviamente i valori sulla CPU sono ben diversi, dove la 5800x vola. Anzi, calcola che ho appena messo mano al bios mettendo pure mano al sotto menù dell'overclock e ho guadagnato il 6,5% rispetto a ieri.
Ma ingame invece? Mettiamo da parte i bench un attimo
Cutter90
06-08-2021, 15:05
Grazie Mike! Possibile un utente con 3090 e 5950x faccia 8 fps più di me stesse impostazioni? A me non quadra
Beh, ma con una 3090 è normale fare qualche fps in più. Vado a casa e tra 30 minuti avrai il mio responso.
Parametri del bench? Così lo faccio uguale
Micropoint_ITA
06-08-2021, 15:40
Ma ingame invece? Mettiamo da parte i bench un attimo
Non lo so devo ancora provare :muro:
Micropoint_ITA
06-08-2021, 15:40
Beh, ma con una 3090 è normale fare qualche fps in più. Vado a casa e tra 30 minuti avrai il mio responso.
Parametri del bench? Così lo faccio uguale
Te li ho allegati nel post precedente (c'è il link con il mio risultato e le impostazioni attive a screen)
Comunque vai con queste impostazioni:
https://ibb.co/6PvwgJw
Grazie ;)
TigerTank
06-08-2021, 15:43
Beh, ma con una 3090 è normale fare qualche fps in più. Vado a casa e tra 30 minuti avrai il mio responso.
Parametri del bench? Così lo faccio uguale
No, in teoria nel test integrato di Metro Exodus la 3080Ti andrebbe praticamente quanto la 3090 :D
https://www.hwupgrade.it/articoli/6035/metro_exodus.png
Micropoint_ITA
06-08-2021, 15:54
No, in teoria nel test integrato di Metro Exodus la 3080Ti andrebbe praticamente quanto la 3090 :D
https://www.hwupgrade.it/articoli/6035/metro_exodus.png
Sarebbe bello sapere che opzioni hanno messo nel test (tessellation , dlss ecc)
Poi vabbè, magari il 5950x che ho preso in esempio potrebbe fare qualcosina in più, ma 8 fps tra 3090 e 5950x mi sembrano comunque tanti a 4k.
Magari Exodus più core trita meglio rende
Intanto ho testato in bench rdr2.
Con 6700k @4.5
FPS minimi: 14
FPS massimi: 77
FPS medi: 59.7
5800x
FPS minimi: 34
FPS massimi: 68
FPS medi: 60.
Ok gli fps minimi, ma come mai nei massimi cambia così tanto? Eppure , tra l'altro, rdr2 dovrebbe rendere meglio con amd
mikael84
06-08-2021, 15:57
Guarda, non so se è questione di pulizia dei driver, cosa che dovrò fare, ma con un 5800x faccio 55 fps, con il 6700k facevo 58 fps...stesse impostazioni di benchmark (benchmark reale, che si trova nella cartella di Exodus)
Su time Spy ovviamente i valori sulla CPU sono ben diversi, dove la 5800x vola. Anzi, calcola che ho appena messo mano al bios mettendo pure mano al sotto menù dell'overclock e ho guadagnato il 6,5% rispetto a ieri.
Anche a questa testata famosa da quanto te, alle medesime impostazioni
clicca il link.
https://i.postimg.cc/KkKJhmmB/metro.png (https://postimg.cc/KkKJhmmB)
Questi hanno un 5950x
Cutter90
06-08-2021, 16:07
Te li ho allegati nel post precedente (c'è il link con il mio risultato e le impostazioni attive a screen)
Comunque vai con queste impostazioni:
https://ibb.co/6PvwgJw
Grazie ;)
Ok, appena lanciato, gpu stock. Vediamo. Però nei tuoi risultati della pagina precedente non avevi questi settaggi.
Cmq ingame non usare il vrs e tieni on sia hariworks che physics eh
Eccolo https://i.imgur.com/BAlrluz.jpg
60.58
85.5
46.4
Gpu stock e cpu in versione calma, a 5 ghz 1.17 volt
Micropoint_ITA
06-08-2021, 16:12
Ok, appena lanciato, gpu stock. Vediamo. Però nei tuoi risultati della pagina precedente non avevi questi settaggi.
Cmq ingame non usare il vrs e tieni on sia hariworks che physics eh
Eccolo https://i.imgur.com/BAlrluz.jpg
60.58
85.5
46.4
Gpu stock e cpu in versione calma, a 5 ghz 1.17 volt
No no usa questi che sono più affidabili ;)
ROBHANAMICI
06-08-2021, 16:14
https://ibb.co/2Z81N1C
https://ibb.co/tX89VSy
Freschi di un attimo fa. A 1950mhz
Ora sono a 2ghz e ho alzato un pelo le memorie...aggiorno tra poco ...
20450 sul graphic ora.
Comunque è assurdo. ICue che gestisce le periferiche Asus mi pare che si mangia un paio di punti percentuale in questi overclock.
Ok ottimi risultati, grazie ;)
Micropoint_ITA
06-08-2021, 16:16
Anche a questa testata famosa da quanto te, alle medesime impostazioni
clicca il link.
https://i.postimg.cc/KkKJhmmB/metro.png (https://postimg.cc/KkKJhmmB)
Questi hanno un 5950x
Così si ragiona, grazie Mike
Cutter90
06-08-2021, 16:18
No no usa questi che sono più affidabili ;)
Andando in oc leggero con la gpu (dato che metro non regge oc seri, maledetti)
Guadagno 3 fps su tutti e 3 i valori
Ps: hai visto, ho modificato il post precedente con foto e valori
Micropoint_ITA
06-08-2021, 16:23
Ok, appena lanciato, gpu stock. Vediamo. Però nei tuoi risultati della pagina precedente non avevi questi settaggi.
Cmq ingame non usare il vrs e tieni on sia hariworks che physics eh
Eccolo https://i.imgur.com/BAlrluz.jpg
60.58
85.5
46.4
Gpu stock e cpu in versione calma, a 5 ghz 1.17 volt
https://ibb.co/Wgtjm1p
57.95
81.82
43.85
Adesso si ragiona quindi siamo in linea, secomdo me a sto punto il 5950x avrebbe uno sbalzo in più in Exodus.
Però c'è una cosa che non mi torna sui tuoi, come mai hai così tantissimi frame minimi (5000 frame)?
Cutter90
06-08-2021, 16:43
https://ibb.co/Wgtjm1p
57.95
81.82
43.85
Adesso si ragiona quindi siamo in linea, secomdo me a sto punto il 5950x avrebbe uno sbalzo in più in Exodus.
Però c'è una cosa che non mi torna sui tuoi, come mai hai così tantissimi frame minimi (5000 frame)?
Si ma occhio, perché io l ho fatto con cpu a 5. Stock boosta a 5.3. Quindi non fare troppo affidamento sul discorso cpu. Dopo magari ne faccio uno con cpu versione spinta come lo uso di solito
Micropoint_ITA
06-08-2021, 17:20
Si ma occhio, perché io l ho fatto con cpu a 5. Stock boosta a 5.3. Quindi non fare troppo affidamento sul discorso cpu. Dopo magari ne faccio uno con cpu versione spinta come lo uso di solito
Si ok ma il discorso è che gli fps minimi sono sospetti di frequenze sbagliate, sei sicuro sia tutto apposto nell'overclock? Spero di sbagliarmi io comunque, sia chiaro. Fammi sapere se riesci a fare un po' di OC comunque si, in metro la tua CPU dovrebbe volare alto (come aveva postato il bench precedente, Mike)
Cutter90
06-08-2021, 17:55
Si ok ma il discorso è che gli fps minimi sono sospetti di frequenze sbagliate, sei sicuro sia tutto apposto nell'overclock? Spero di sbagliarmi io comunque, sia chiaro. Fammi sapere se riesci a fare un po' di OC comunque si, in metro la tua CPU dovrebbe volare alto (come aveva postato il bench precedente, Mike)
Ma quanto incide la cpu mica si vede d questo bench.....
Micropoint_ITA
06-08-2021, 18:22
Ma quanto incide la cpu mica si vede d questo bench.....
No no, infatti, però è strano l'utilizzo degli fps (una quantità enorme di minimi) poi magari manco si notano a schermo ma è come se avessi parecchi frame che crollano molto spesso, pero se non sbaglio il tuo pannello è gsync, forse è quello ed è normale.
Comunque avevi assolutamente ragione sulle prestazioni e i crolli che avrei risolto. Dopo un oretta su Exodus è decisamente cambiato
Ad esempio qui:
https://ibb.co/YkG4kp2
Prima con il 6700k in questa scena anche stando fermo 52 fissi. Ora 60 fissi e togliendo vsync diventano 70 e passa, quindi direi che ho risolti gli sporadici crolli, anche osservando l'orizzonte soprattutto un questa mappa specifica tutto liscio come l'olio.
Cutter90
06-08-2021, 19:01
No no, infatti, però è strano l'utilizzo degli fps (una quantità enorme di minimi) poi magari manco si notano a schermo ma è come se avessi parecchi frame che crollano molto spesso, pero se non sbaglio il tuo pannello è gsync, forse è quello ed è normale.
Comunque avevi assolutamente ragione sulle prestazioni e i crolli che avrei risolto. Dopo un oretta su Exodus è decisamente cambiato
Ad esempio qui:
https://ibb.co/YkG4kp2
Prima con il 6700k in questa scena anche stando fermo 52 fissi. Ora 60 fissi e togliendo vsync diventano 70 e passa, quindi direi che ho risolti gli sporadici crolli, anche osservando l'orizzonte soprattutto un questa mappa specifica tutto liscio come l'olio.
Visto? Mi fa molto piacere tu abbia risolto. Non sono cose che si vedono subito quelle.
https://i.imgur.com/5ioePtW.jpg
Questo è con il 5.3. A livello di fps non cambia nulla. I frame minimo si, ma prima ne avevo rifatto uno sempre a 5 e frame minimi da 5000 erano passati a 700. Ora siamo sui 300. Non so perché. Cmq si gsync attivo
Micropoint_ITA
06-08-2021, 20:03
Visto? Mi fa molto piacere tu abbia risolto. Non sono cose che si vedono subito quelle.
https://i.imgur.com/5ioePtW.jpg
Questo è con il 5.3. A livello di fps non cambia nulla. I frame minimo si, ma prima ne avevo rifatto uno sempre a 5 e frame minimi da 5000 erano passati a 700. Ora siamo sui 300. Non so perché. Cmq si gsync attivo
Ora secondo me si ragiona.
Secondo me più importanti i minimi che i massimi se questi sono completamente antipodi. Ottimo.
Comunque non capisco come faccio a fare fps più alti prendendo esempio rdr2, sono tanti di più quelli fatti con 6700k
Dattofree
06-08-2021, 22:53
Ora secondo me si ragiona.
Secondo me più importanti i minimi che i massimi se questi sono completamente antipodi. Ottimo.
Comunque non capisco come faccio a fare fps più alti prendendo esempio rdr2, sono tanti di più quelli fatti con 6700k
Hai disattivato tutto Gsync, vsync e compagnia bella?
Micropoint_ITA
07-08-2021, 08:05
Hai disattivato tutto Gsync, vsync e compagnia bella?
È un bench tool quindi vsync lo disattiva in automatico (non c'è manco l'opzione)
Vsync non ce l'ho proprio.
Comunque stessi identici valori di frame rate medio del mio vecchio 6700k, i massimi sono addirittura più alti su 6700k ma i minimi qui sul 5800x fanno davvero la differenza infatti tutte quelle situazioni critiche che avevo sulla vecchia configurazione (tipo la foto che ho postato qualche post indietro) ora non ci sono più. Ed erano parecchie e fastidiose. direi che quello che ha guadagnato è una fluidità impeccabile
bronzodiriace
07-08-2021, 09:37
È un bench tool quindi vsync lo disattiva in automatico (non c'è manco l'opzione)
Vsync non ce l'ho proprio.
Comunque stessi identici valori di frame rate medio del mio vecchio 6700k, i massimi sono addirittura più alti su 6700k ma i minimi qui sul 5800x fanno davvero la differenza infatti tutte quelle situazioni critiche che avevo sulla vecchia configurazione (tipo la foto che ho postato qualche post indietro) ora non ci sono più. Ed erano parecchie e fastidiose. direi che quello che ha guadagnato è una fluidità impeccabileAnche dal pannello NVidia.
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Dattofree
07-08-2021, 11:21
Anche dal pannello NVidia.
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Anche dal monitor bisogna disattivare gsync o freesync :D
Dattofree
07-08-2021, 11:23
È un bench tool quindi vsync lo disattiva in automatico (non c'è manco l'opzione)
Vsync non ce l'ho proprio.
Comunque stessi identici valori di frame rate medio del mio vecchio 6700k, i massimi sono addirittura più alti su 6700k ma i minimi qui sul 5800x fanno davvero la differenza infatti tutte quelle situazioni critiche che avevo sulla vecchia configurazione (tipo la foto che ho postato qualche post indietro) ora non ci sono più. Ed erano parecchie e fastidiose. direi che quello che ha guadagnato è una fluidità impeccabile
Comunque non te ne fare un problema. Se vuoi un consiglio quando cerchi una risposta ricordati di non fare la domanda in un solo posto su internet. Ottieni sempre la stessa risposta che non sempre è veritiera.
Micropoint_ITA
07-08-2021, 16:45
Visto? Mi fa molto piacere tu abbia risolto. Non sono cose che si vedono subito quelle.
https://i.imgur.com/5ioePtW.jpg
Questo è con il 5.3. A livello di fps non cambia nulla. I frame minimo si, ma prima ne avevo rifatto uno sempre a 5 e frame minimi da 5000 erano passati a 700. Ora siamo sui 300. Non so perché. Cmq si gsync attivo
Ho fatto alcuni aggiornamenti oggi,
Questi sono i risultati attuali sembra abbiamo la stessa identica configurazione:D
https://ibb.co/cxy5yRC
TigerTank
07-08-2021, 17:56
Scusate se eventualmente ho scoperto l'acqua calda...ma ho scoperto solo adesso che da HWinfo è possibile aggiungere all'OSD di Afterburner(o meglio dell'RTSS) dei valori di monitoraggio particolari che non si hanno aggiungendo semplicemente HWinfo come plugin nella schede "Grafici" delle impostazioni di AB...
Se magari a qualcuno interessasse la cosa a livello di monitoraggi diretti da OSD.
Peraltro in questo modo non è nemmeno necessario aggiungere hwinfo come plugin in AB...ma deve comunque essere aperto in background.
http://i.imgur.com/8z64cETh.jpg (https://imgur.com/8z64cET)
Perdonate la niubbaggine se la cosa fosse già ampiamente risaputa :D
Il plugin Overlay Editor di RSST fa da viewer per le modifiche che si apportano in hwinfo.
Non è possibile una gran gestione a livello estetico ma perlomeno io ho inglobato nell'OSD tutte le rilevazioni di temperatura VRAM e PWR da ICX della mia scheda...soprattutto non usando il PrecisionX in ruolo attivo(preferendo AB).
EDIT: i nomi delle "etichette" si possono cambiare nella scheda "Custom" di hwinfo.
fraussantin
07-08-2021, 18:20
Scusate se eventualmente ho scoperto l'acqua calda...ma ho scoperto solo adesso che da HWinfo è possibile aggiungere all'OSD di Afterburner(o meglio dell'RTSS) dei valori di monitoraggio particolari che non si hanno aggiungendo semplicemente HWinfo come plugin nella schede "Grafici" delle impostazioni di AB...
Se magari a qualcuno interessasse la cosa a livello di monitoraggi diretti da OSD.
Peraltro in questo modo non è nemmeno necessario aggiungere hwinfo come plugin in AB...ma deve comunque essere aperto in background.
http://i.imgur.com/8z64cETh.jpg (https://imgur.com/8z64cET)
Perdonate la niubbaggine se la cosa fosse già ampiamente risaputa :D
Il plugin Overlay Editor di RSST fa da viewer per le modifiche che si apportano in hwinfo.
Non è possibile una gran gestione a livello estetico ma perlomeno io ho inglobato nell'OSD tutte le rilevazioni di temperatura VRAM e PWR da ICX della mia scheda...soprattutto non usando il PrecisionX in ruolo attivo(preferendo AB).
EDIT: i nomi delle "etichette" si possono cambiare nella scheda "Custom" di hwinfo.Più che altro è comodo perché puoi decidere la posizione esatta del valore in modo da mettere tutto in ordine e bene in vista . ( Se non erro di può anche mettere un colore preciso , ma io tengo tutto bianco )
TigerTank
07-08-2021, 18:34
Più che altro è comodo perché puoi decidere la posizione esatta del valore in modo da mettere tutto in ordine e bene in vista . ( Se non erro di può anche mettere un colore preciso , ma io tengo tutto bianco )
Diciamo che circa i dati aggiunti in questo modo sto vedendo che da hwinfo puoi smanettare un pò circa accorpamenti e nomi ma puoi solo settare un colore per etichetta+valore(questo permette hwinfo...), gestione differente da quella che si può fare nei "Grafici" di AB.
Però è comunque cosa comoda e settando un tasto rapido in HWinfo, si può far apparire o meno tutta la parte aggiunta indipendentemente dall'OSD di AB.
Ho anche notato che nella scheda "OSD(RTSS)" ci sono anche voci aggiungibili all'OSD non presenti nei monitoraggi standard di hwinfo...come ad esempio gli input sugli 8pin di alimentazione.
http://i.imgur.com/n7s3c7ol.jpg (https://imgur.com/n7s3c7o)
Non bellissimo ma più immediato in game o in bench.
fraussantin
07-08-2021, 18:37
Diciamo che circa i dati aggiunti in questo modo sto vedendo che da hwinfo puoi smanettare un pò circa accorpamenti e nomi ma puoi solo settare un colore per etichetta+valore(questo permette hwinfo...), gestione differente da quella che si può fare nei "Grafici" di AB.
Però è comunque cosa comoda e settando un tasto rapido in HWinfo, si può far apparire o meno tutta la parte aggiunta indipendentemente dall'OSD di AB.
Ho anche notato che nella scheda OSD(RTSS) ci sono anche voci aggiungibili all'OSD non presenti nei monitoraggi standard di hwinfo...come ad esempio gli input sugli 8pin di alimentazione.
http://i.imgur.com/n7s3c7ol.jpg (https://imgur.com/n7s3c7o)
Non bellissimo ma più immediato in game o in bench.È esattamente per quello che l'ho messa , poi è utile per tante cose , anche le temperature hotspot .
TigerTank
07-08-2021, 18:49
È esattamente per quello che l'ho messa , poi è utile per tante cose , anche le temperature hotspot .
Eh sì...nel mio caso per vedere se almeno con l'undervolt manterrà valori decenti in ogni situazione. Un cambio di pads e pasta termica l'ho scartato per via delle troppe "opinioni" che ho trovato in rete circa lo spessore dei pads utilizzati sotto al dissipatore stock(e non voglio rischiare spendendo pure altri dindi)...ma magari per valutare o meno un fullcover.
E di sicuro per verificare il buon contatto di un fullcover anche su vrm e vram.
Bene sono in fase di test ad aria prima di passare a liquido :D
http://i.imgur.com/yTyeKhDm.jpg (https://imgur.com/yTyeKhD)
Ho fatto alcuni bench con tutto a default, così come esce dalla scatola
http://i.imgur.com/sCNe5zTl.png (https://i.imgur.com/sCNe5zT.png)http://i.imgur.com/vxs1wX1l.png (https://i.imgur.com/vxs1wX1.png)
https://i.imgur.com/DIcxewv.png (https://imgur.com/DIcxewv)http://i.imgur.com/hmFix77l.png (https://i.imgur.com/hmFix77.png)
alcuni confronti con le mie configurazioni precedenti
http://i.imgur.com/PrsLYlLl.png (https://i.imgur.com/PrsLYlL.png)
http://i.imgur.com/k2UtNKql.png (https://i.imgur.com/k2UtNKq.png)
Micropoint_ITA
07-08-2021, 22:08
Bene sono in fase di test ad aria prima di passare a liquido :D
http://i.imgur.com/yTyeKhDm.jpg (https://imgur.com/yTyeKhD)
Ho fatto alcuni bench con tutto a default, così come esce dalla scatola
http://i.imgur.com/sCNe5zTl.png (https://i.imgur.com/sCNe5zT.png)http://i.imgur.com/vxs1wX1l.png (https://i.imgur.com/vxs1wX1.png)
https://i.imgur.com/DIcxewv.png (https://imgur.com/DIcxewv)http://i.imgur.com/hmFix77l.png (https://i.imgur.com/hmFix77.png)
alcuni confronti con le mie configurazioni precedenti
http://i.imgur.com/PrsLYlLl.png (https://i.imgur.com/PrsLYlL.png)
http://i.imgur.com/k2UtNKql.png (https://i.imgur.com/k2UtNKq.png)
Fai benissimo a liquidare: io ho notato che queste 3000 soffrono i bench lunghi, ho notato alcuni cali visibili dopo sessioni di bench prolungati, secondo me più della mia precedente 1080ti
Micropoint_ITA
08-08-2021, 08:17
Ragazzi buon giorno.
Solo io ho notato che dopo numerose sessioni di benchmark continui i risultati cambiano non poco? Da cosa può dipendere se le temperature rimangono accettabili sulla GPU ? Dipende dalle temperature delle memorie?
La 1080ti se non ricordo male reggeva molto di più benchmark continui perdendo relativamente poco.
Thunder-74
08-08-2021, 08:17
Non c é nulla da fare, tra le varie schede le Strix sono tra quelle con una sezione dì alimentazione meglio progettata: guarda la ripartizione dei watt sui tre connettori e un carico adeguato sul pcie .
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
08-08-2021, 08:27
Ragazzi buon giorno.
Solo io ho notato che dopo numerose sessioni di benchmark continui i risultati cambiano non poco? Da cosa può dipendere se le temperature rimangono accettabili sulla GPU ? Dipende dalle temperature delle memorie?
La 1080ti se non ricordo male reggeva molto di più benchmark continui perdendo relativamente poco.
Partiamo con il dire che ampere consuma dì più dì Pascal con conseguenti temperature più alte da gestire . Ovvio che una run lunga porta all innalzamento delle temp. Tienile monitorate anche quelle della mem. Se hai risultati altalenanti, è perché probabilmente hai freq decrescenti nel tempo per via della temp sulla gpu . A determinate temperature si ha un taglio dì 15 mhz . Intervengono già dai 35 gradi a salire ogni 5 circa . A circa 50 avviene una cosa anomala, la freq. risale, ma non so se avviene con tutti i modelli. Sulle Asus si.
Se hai occato la vram, è possibile che possa causano avvenire degli errori e il controllo possa far perdere cicli dì clock fino al passaggio dei dati corretti, con perdita dì punteggio . Questo potresti averlo con scheda sotto stress magari su test lunghi.
In sintesi monitora temp e freq. con HWinfo o gpuz e controlla l andamento
Inviato dal mio iPhone X utilizzando Tapatalk
Micropoint_ITA
08-08-2021, 08:49
Partiamo con il dire che ampere consuma dì più dì Pascal con conseguenti temperature più alte da gestire . Ovvio che una run lunga porta all innalzamento delle temp. Tienile monitorate anche quelle della mem. Se hai risultati altalenanti, è perché probabilmente hai freq decrescenti nel tempo per via della temp sulla gpu . A determinate temperature si ha un taglio dì 15 mhz . Intervengono già dai 35 gradi a salire ogni 5 circa . A circa 50 avviene una cosa anomala, la freq. risale, ma non so se avviene con tutti i modelli. Sulle Asus si.
Se hai occato la vram, è possibile che possa causano avvenire degli errori e il controllo possa far perdere cicli dì clock fino al passaggio dei dati corretti, con perdita dì punteggio . Questo potresti averlo con scheda sotto stress magari su test lunghi.
In sintesi monitora temp e freq. con HWinfo o gpuz e controlla l andamento
Inviato dal mio iPhone X utilizzando Tapatalk
Grazie per la risposta dettagliata.
Guarda,
Io tutte ste cose le ho notate con scheda in downvolt, a 1950mhz e memore a +300.
Dovrei riprovare con le memorie a default.
Calcola che il benchmark di Exodus, che credo sia uno dei più pesanti dato che mantiene per parecchio la scheda al 99%, nonostante le temperature che non superano mai i 72/75 gradi, dopo numerosi bench passa da una media iniziale di 61 fps a 57. Mica poco
Grazie per la risposta dettagliata.
Guarda,
Io tutte ste cose le ho notate con scheda in downvolt, a 1950mhz e memore a +300.
Dovrei riprovare con le memorie a default.
Calcola che il benchmark di Exodus, che credo sia uno dei più pesanti dato che mantiene per parecchio la scheda al 99%, nonostante le temperature che non superano mai i 72/75 gradi, dopo numerosi bench passa da una media iniziale di 61 fps a 57. Mica poco
Anche il benchmark di boundary, gratis su steam è un bel macigno, prova anche lui, la 3090 fa da 15 a 50 fps in 4k senza dlss.
Non c é nulla da fare, tra le varie schede le Strix sono tra quelle con una sezione dì alimentazione meglio progettata: guarda la ripartizione dei watt sui tre connettori e un carico adeguato sul pcie .
Inviato dal mio iPhone X utilizzando Tapatalk
Si veramente impressionante, poi con 3 linee 12v dedicate una per slot l'alimentatore è stabilissimo.
Thunder-74
08-08-2021, 10:04
Si veramente impressionante, poi con 3 linee 12v dedicate una per slot l'alimentatore è stabilissimo.
In realtà questo può essere vero con PSU multi rail, dove diventa necessario usare più canali , visto che gli ampere sono suddivisi. Con un single rail , la linea da 12v è unica gli ampere tutti disponibili, ma comunque sempre meglio usare cavi singoli per ripartire l assorbimento su di essi
Inviato dal mio iPhone X utilizzando Tapatalk
Micropoint_ITA
08-08-2021, 10:08
Anche il benchmark di boundary, gratis su steam è un bel macigno, prova anche lui, la 3090 fa da 15 a 50 fps in 4k senza dlss.
Proverò grazie!
Intanto ti giro questi due bench su Rdr2, ho semplicemente spostato la slide sulle impostazioni originali su ultra (massima qualità grafica) senza toccare nient'altro.
A 1080 e 2160
https://ibb.co/BLk5n35
https://ibb.co/m86kWLK
I minimi su 6700k erano di 13 fps...
TigerTank
08-08-2021, 10:08
Anche il benchmark di boundary, gratis su steam è un bel macigno, prova anche lui, la 3090 fa da 15 a 50 fps in 4k senza dlss.
Eheheh sono bench che servono a farti deprimere anche se hai speso 2000€ di vga e ad insinuare nell'enthusiast il tarlo da predisposizione budget per la prossima scheda :asd:
Lo proverò anch'io, grazie :)
TigerTank
08-08-2021, 13:36
Ho appena preso Chernobylite e ho dato una prima occhiata.
Ho visto che come DLSS ha la versione 2.1.50 quindi non nuovissima ma recente.
Ora non ho tempo ma proverò a mettere l'ultima versione 2.1 da database di techpowerup per vedere se va meglio.
Ha 4 preset DLSS (Prestazioni Ultra, Prestazioni, Bilanciato, Qualità) e anche l'AMD FSR 1.0.
http://i.imgur.com/agQnsQtl.jpg (https://imgur.com/agQnsQt)
Ho fatto giusto un paio di giri al benchmark integrato, piuttosto lungo e per di più su più mappe, limitandomi alla prima mappa per carenza di tempo.
Già senza DLSS a 3440x1440 tutto ultra e altre impo a default(tipo il campo visivo) perlomeno su questa prima mappa di test del bench gira benone.
E già il DLSS Qualità fa ulteriormente guadagnare parecchio. Per cui credo sia gestibile alla grandissima anche in 4K e con schede non di punta.
D'altronde al momento non c'è il ray tracing ma su Steam uno sviluppatore ha scritto:
"We're doing ray tracing tests right now. It will not be easy to implement, we will probably do it only after the premiere, simultaneously with the work on Ps5 and XSX "
Default:
http://i.imgur.com/58uKciDl.jpg (https://imgur.com/58uKciD)
DLSS Qualità:
http://i.imgur.com/M1NKg5zl.jpg (https://imgur.com/M1NKg5z)
Il bench integrato comunque non è molto intelligente...nel senso che per farlo andare a briglia sciolta meglio lasciare il vsync dei drivers in "lascia decidere all'applicazione " e disattivare sia vsync che limite framerate nelle opzioni del gioco prima di lanciarlo. Altrimenti viene cappato.
La GPU a briglia sciolta(max. 200-250fps) mi è arrivata sui 65°C nel bench con il DLSS e sui 68°C senza.
EDIT: da notare che al momento il gioco è in DX11...probabilmente lo aggiorneranno alle dx12 con l'implementazione del ray tracing.
Da PCGamingWiki: "DirectX 12 was added in an update and then removed as a start option on April 14, 2021. Players can still access the DirectX 12 renderer at their own risk by running the game with the -dx12 parameter."
Thunder-74
08-08-2021, 14:39
Ho appena preso Chernobylite e ho dato una prima occhiata.
Ho visto che come DLSS ha la versione 2.1.50 quindi non nuovissima ma recente.
Ora non ho tempo ma proverò a mettere l'ultima versione 2.1 da database di techpowerup per vedere se va meglio.
Ha 4 preset DLSS (Prestazioni Ultra, Prestazioni, Bilanciato, Qualità) e anche l'AMD FSR 1.0.
http://i.imgur.com/agQnsQtl.jpg (https://imgur.com/agQnsQt)
Ho fatto giusto un paio di giri al benchmark integrato, piuttosto lungo e per di più su più mappe, limitandomi alla prima mappa per carenza di tempo.
Già senza DLSS a 3440x1440 tutto ultra e altre impo a default(tipo il campo visivo) perlomeno su questa prima mappa di test del bench gira benone.
E già il DLSS Qualità fa ulteriormente guadagnare parecchio. Per cui credo sia gestibile alla grandissima anche in 4K e con schede non di punta.
D'altronde al momento non c'è il ray tracing ma su Steam uno sviluppatore ha scritto:
"We're doing ray tracing tests right now. It will not be easy to implement, we will probably do it only after the premiere, simultaneously with the work on Ps5 and XSX "
Default:
http://i.imgur.com/58uKciDl.jpg (https://imgur.com/58uKciD)
DLSS Qualità:
http://i.imgur.com/M1NKg5zl.jpg (https://imgur.com/M1NKg5z)
Il bench integrato comunque non è molto intelligente...nel senso che per farlo andare a briglia sciolta meglio lasciare il vsync dei drivers in "lascia decidere all'applicazione " e disattivare sia vsync che limite framerate nelle opzioni del gioco prima di lanciarlo. Altrimenti viene cappato.
La GPU a briglia sciolta(max. 200-250fps) mi è arrivata sui 65°C nel bench con il DLSS e sui 68°C senza.
EDIT: da notare che al momento il gioco è in DX11...probabilmente lo aggiorneranno alle dx12 con l'implementazione del ray tracing.
Da PCGamingWiki: "DirectX 12 was added in an update and then removed as a start option on April 14, 2021. Players can still access the DirectX 12 renderer at their own risk by running the game with the -dx12 parameter."
Se usi il parametro -dx12 parameter in steam, già ora lo forzi per funzionare con le dx 12 .
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
08-08-2021, 14:54
Se usi il parametro -dx12 parameter in steam, già ora lo forzi per funzionare con le dx 12 .
Sì sì, visto, infatti poi lo proverò. C'è chi dice che sia stata tolta perchè ancora immatura come modalità per alcune cose(HDR?) ma vari gamers non hanno notato problemi particolari dopo ore ed ore di gioco.
E come scritto sopra probabilmenteio presumo le rimetteranno ufficialmente con l'implementazione(si spera e per forza direi) del ray tracing.
Comunque la mia prima impressione, già in dx11, è stata di un buon rapporto qualità grafica-prestazioni.
E se non ho capito male il benchmark gira su più mappe consecutive(calcolando il punteggio alla fine di ognuna) per un totale di oltre 20 minuti :D
Micropoint_ITA
08-08-2021, 14:57
Con una 3080ti in cyberpunk una lista di opzioni attivabili per giocare a 60 fps spingendo il più possibile sul lato grafico? Sapete consigliarmi?
TigerTank
08-08-2021, 15:27
Con una 3080ti in cyberpunk una lista di opzioni attivabili per giocare a 60 fps spingendo il più possibile sul lato grafico? Sapete consigliarmi?
Prova magari a partire con questi (https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-optimize-rtx-settings/GF-RTX-Cyberpunk2077-Graphics%20Settings-4K-2048x1024-v2.jpg) per la 3090.
Oppure setta DLSS bilanciato o qualità e sacrifica altro(a partire dal ray tracing).
Ale55andr0
08-08-2021, 16:23
Con una 3080ti in cyberpunk una lista di opzioni attivabili per giocare a 60 fps spingendo il più possibile sul lato grafico? Sapete consigliarmi?
Metti tutto al max impostabile tranne:
Ray tracing: tienilo su Ultra e non Folle e spegnilo sulle ombre (perdi pochissimo lato resa, anzi a me piace più così)
Riflessi screen space: tienilo su Alto e non Ultra o Folle
Ombre volumetriche e nubi volumetriche: tienilo su Alto e non Ultra
Precisione colore: Medio e non Alto (cambia nulla visivamente ma guadagni 2/3 frame)
Risoluzione 3840x2160 (suppongo, visto il tv) con DLSS "Bilanciato". Se la tv ha un buono scaler puoi stare anche a 1440p, ma in quel caso nativi (DLSS OFF!)
inizia così e poi a limite vai di fino con ulteriori prove
A ogni modo considera che il frame rate è estremamente variabile in base a dove ti trovi e al contesto: un conto è essere in centro, altro nelle badlands (deserto), e se sei a piedi piuttosto che su un veicolo o se l'ora di punta o di notte. Inoltre più tempo si di fila si gioca più il gioco inizia a rallentare di suo perchè evidentemente non riesce a scaricare bene le risorse non più necessarie in memoria
Micropoint_ITA
08-08-2021, 17:58
Prova magari a partire con questi (https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-optimize-rtx-settings/GF-RTX-Cyberpunk2077-Graphics%20Settings-4K-2048x1024-v2.jpg) per la 3090.
Oppure setta DLSS bilanciato o qualità e sacrifica altro(a partire dal ray tracing).
Metti tutto al max impostabile tranne:
Ray tracing: tienilo su Ultra e non Folle e spegnilo sulle ombre (perdi pochissimo lato resa, anzi a me piace più così)
Riflessi screen space: tienilo su Alto e non Ultra o Folle
Ombre volumetriche e nubi volumetriche: tienilo su Alto e non Ultra
Precisione colore: Medio e non Alto (cambia nulla visivamente ma guadagni 2/3 frame)
Risoluzione 3840x2160 (suppongo, visto il tv) con DLSS "Bilanciato". Se la tv ha un buono scaler puoi stare anche a 1440p, ma in quel caso nativi (DLSS OFF!)
inizia così e poi a limite vai di fino con ulteriori prove
A ogni modo considera che il frame rate è estremamente variabile in base a dove ti trovi e al contesto: un conto è essere in centro, altro nelle badlands (deserto), e se sei a piedi piuttosto che su un veicolo o se l'ora di punta o di notte. Inoltre più tempo si di fila si gioca più il gioco inizia a rallentare di suo perchè evidentemente non riesce a scaricare bene le risorse non più necessarie in memoria
Grazie, consigli utili.
Alessandro mi sono salvato lo screen.
TigerTank
08-08-2021, 21:28
Ho fatto qualche altro test con Chernobylite.
Sempre DLSS Qualità ma settando le dx12 da launcher e provando un paio di profili DLSS.
Con il DLSS 2.2.11, l'ultimo disponibile, un disastro. Stuttering a iosa e la cosa si vede dai numeri. Evidentemente perchè il gioco è della famiglia 2.1.
http://i.imgur.com/zMR7ncBl.jpg (https://imgur.com/zMR7ncB)
Con il DLSS 2.1.66(l'ultimo della serie 2.1) molto meglio e gira liscio, anche se quello default del gioco (2.1.50) resta giusto un pelino meglio.
2.1.50
http://i.imgur.com/IuHHCNsl.jpg (https://imgur.com/IuHHCNs)
2.1.66
http://i.imgur.com/UszKQk0l.jpg (https://imgur.com/UszKQk0)
Per cui alla fine lascerò quello di default del gioco.
DarkNiko
08-08-2021, 21:34
Non c é nulla da fare, tra le varie schede le Strix sono tra quelle con una sezione dì alimentazione meglio progettata: guarda la ripartizione dei watt sui tre connettori e un carico adeguato sul pcie .
Inviato dal mio iPhone X utilizzando Tapatalk
E vorrei vedere bene, con quello che le abbiamo pagate !!! :D
TigerTank
08-08-2021, 21:44
E vorrei vedere bene, con quello che le abbiamo pagate !!! :D
Eheheh ma quella di Thunder è una 3080 Strix OC presa su amazon Italia a meno di 1000€ :D
Anch'io avrei voluto una bella TUF o Strix ma ormai a quei prezzi era un sogno e mi accontento della mia EVGA da 950€...che sbarella un pò in lettura sul terzo 8pin ma romba alla grande :sperem: :D
E sto anche notando che non ha coil whine percepibile nemmeno sparata in bench a briglia sciolta. Buona cosa.
Micropoint_ITA
08-08-2021, 22:10
Eheheh ma quella di Thunder è una 3080 Strix OC presa su amazon Italia a meno di 1000€ :D
Anch'io avrei voluto una bella TUF o Strix ma ormai a quei prezzi era un sogno e mi accontento della mia EVGA da 950€...che sbarella un pò in lettura sul terzo 8pin ma romba alla grande :sperem: :D
E sto anche notando che non ha coil whine percepibile nemmeno sparata in bench a briglia sciolta. Buona cosa.
Io invece devo provare (ma sono fuori di casa mannaggia) a vedere se i benchmark continuativi mi tagliano la potenza anche con memorie a +0. Finora ho notato che con scheda a 1950 e memorie a +300 qualche taglio ce l'ho (come avevo scritto poco sopra). Sarei curioso se dipende dalle memorie, dovrei provare con memorie a 0.
Allora tutto messo sott'acqua.
https://i.imgur.com/OYBE9afm.jpg (https://i.imgur.com/OYBE9af.jpg)
Ho fatto un paio di run veloci di CP e Control, poi qualche bench, la scheda ha il PL a 480W da driver e se li succhia tutti fino all'ultimo elettrone con 1,006V a 2160Mhz che poi droppano subito a 2130, ed a 50 gradi tornano 2145Mhz. Purtroppo il PL è restrittivo e a 1,0012v si sfora già il PL, ci vorrebbe un bios da 500W, comunque lato memorie al minimo incremento crasha tutto, nonostante le temp decisamente buone.
Se lasciata a default le memorie salgono senza problemi fino a +1100, ma la resa in termini pratici è irrisoria rispetto all'overclock del core.
Come risultati sulle temp siamo a max 53 core, 60 le memorie. Questa notte proverò in mining a vedere come tiene per le memorie.
In 3d Mark Port Royale:
https://i.imgur.com/Gmmxq1Bl.png (https://i.imgur.com/Gmmxq1B.png)
Ed a confronto con i parametri stock:
https://i.imgur.com/x7lt8ZUl.png (https://i.imgur.com/x7lt8ZU.png)
Per cominciare direi buono, vedremo con il tempo e vari ritocchi dove finiremo.
TigerTank
08-08-2021, 22:23
Io invece devo provare (ma sono fuori di casa mannaggia) a vedere se i benchmark continuativi mi tagliano la potenza anche con memorie a +0. Finora ho notato che con scheda a 1950 e memorie a +300 qualche taglio ce l'ho (come avevo scritto poco sopra). Sarei curioso se dipende dalle memorie, dovrei provare con memorie a 0.
Quando possibile prova magari a vedere se ti cambia qualcosa impostando in AB la priorità al power limit o alla temperatura. E' quella freccina che c'è accanto alla scritta "Priority", sopra all'icona di concatenazione tra power limit e temp. Io ho setato priorità alla temperatura.
@Kiwivda: sì alla fine le ram tanto vale lasciarle a default, soprattutto in gaming.
Micropoint_ITA
08-08-2021, 22:23
Allora tutto messo sott'acqua.
https://i.imgur.com/OYBE9afm.jpg (https://i.imgur.com/OYBE9af.jpg)
Ho fatto un paio di run veloci di CP e Control, poi qualche bench, la scheda ha il PL a 480W da driver e se li succhia tutti fino all'ultimo elettrone con 1,006V a 2160Mhz che poi droppano subito a 2130, ed a 50 gradi tornano 2145Mhz. Purtroppo il PL è restrittivo e a 1,0012v si sfora già il PL, ci vorrebbe un bios da 500W, comunque lato memorie al minimo incremento crasha tutto, nonostante le temp decisamente buone.
Se lasciata a default le memorie salgono senza problemi fino a +1100, ma la resa in termini pratici è irrisoria rispetto all'overclock del core.
Come risultati sulle temp siamo a max 53 core, 60 le memorie. Questa notte proverò in mining a vedere come tiene per le memorie.
In 3d Mark Port Royale:
https://i.imgur.com/Gmmxq1Bl.png (https://i.imgur.com/Gmmxq1B.png)
Ed a confronto con i parametri stock:
https://i.imgur.com/x7lt8ZUl.png (https://i.imgur.com/x7lt8ZU.png)
Per cominciare direi buono, vedremo con il tempo e vari ritocchi dove finiremo.
Ottimo! Mi sembra di capire le memorie non le hai toccate?
Ottimo! Mi sembra di capire le memorie non le hai toccate?
Esatto le memorie sono a default, comunque tanto per dire in mining con la scheda ad aria e memorie a defaul la scheda faceva 106mh/s a 70° di core e 86° le mem con ventole al 100% e consumo 260w con PL al 75%, a liquido con backplate attivo, mem a +1100mhz, fa 120,5mh/s a 41° di core e 68 le mem consumo 307w con PL al 78%.
Ok rettifica al mattino la scheda riportava 41° di core e 69° sulle memorie con un consumo dell'intero sistema di 460W, 307w la scheda 153w il resto, direi che liquidata è una bomba, peccato per i consumi a livello delle Fermi, ma nessuno mi farà mai cambiare idea sul fatto che Ampere è su un PP sbagliato.
ROBHANAMICI
09-08-2021, 07:45
E sto anche notando che non ha coil whine percepibile nemmeno sparata in bench a briglia sciolta. Buona cosa.
Sulle tre rtx possedute (allo stato attuale una 3060ti asus strix, 3080ti asus tuf e la vecchia zotac 3090 che ho venduto), nessuna di queste riportava problemi di coil whine, mi sa che sono proprio predisposte per non avere tale tipo di "difetto".
Sulle tre rtx possedute (allo stato attuale una 3060ti asus strix, 3080ti asus tuf e la vecchia zotac 3090 che ho venduto), nessuna di queste riportava problemi di coil whine, mi sa che sono proprio predisposte per non avere tale tipo di "difetto".
La mia 3090 ce l'ha, molto meno della 2080Ti ma c'è, la 3070 ventus x2 non fa un bisbiglio.
ROBHANAMICI
09-08-2021, 07:57
Ma anche a liquido? Vabbè che la strix tira tantissimo.
dinamite2
09-08-2021, 08:37
Ma anche a liquido? Vabbè che la strix tira tantissimo.
Paradossalmente a liquido lo senti di piu, anche la mia 3080 ne soffre, ma solamente durante i benchmark, in gioco non lo sento quasi mai.
Ok rettifica al mattino la scheda riportava 41° di core e 69° sulle memorie con un consumo dell'intero sistema di 460W, 307w la scheda 153w il resto, direi che liquidata è una bomba, peccato per i consumi a livello delle Fermi, ma nessuno mi farà mai cambiare idea sul fatto che Ampere è su un PP sbagliato.
Non ti fa stare male a vedere oltre 2000 euro di scheda, che lavora ore e ore consecutive fissa al 100%? Io ci provai per sfizio un giorno e abbandonai subito l’idea…
Thunder-74
09-08-2021, 08:47
Allora tutto messo sott'acqua.
https://i.imgur.com/OYBE9afm.jpg (https://i.imgur.com/OYBE9af.jpg)
Ho fatto un paio di run veloci di CP e Control, poi qualche bench, la scheda ha il PL a 480W da driver e se li succhia tutti fino all'ultimo elettrone con 1,006V a 2160Mhz che poi droppano subito a 2130, ed a 50 gradi tornano 2145Mhz. Purtroppo il PL è restrittivo e a 1,0012v si sfora già il PL, ci vorrebbe un bios da 500W, comunque lato memorie al minimo incremento crasha tutto, nonostante le temp decisamente buone.
Se lasciata a default le memorie salgono senza problemi fino a +1100, ma la resa in termini pratici è irrisoria rispetto all'overclock del core.
Come risultati sulle temp siamo a max 53 core, 60 le memorie. Questa notte proverò in mining a vedere come tiene per le memorie.
In 3d Mark Port Royale:
https://i.imgur.com/Gmmxq1Bl.png (https://i.imgur.com/Gmmxq1B.png)
Ed a confronto con i parametri stock:
https://i.imgur.com/x7lt8ZUl.png (https://i.imgur.com/x7lt8ZU.png)
Per cominciare direi buono, vedremo con il tempo e vari ritocchi dove finiremo.
Direi ottimo chip binnato. Kn credo però che i crash in oc Sulla ram dipendano da loro, perché hanno il controllo e correggono gli errori. Possibile che tirare in quel modo la gpu dando solo 1v , sei al limite della stabilità e con un oc sulla vram , vai a spingere ulteriormente il tutto e crashi. Prov titoli in RT per testare la stabilità. Ripeto, tenere anche per un bench i 2160/2130mhz a 1v è tanta roba
Inviato dal mio iPhone X utilizzando Tapatalk
ROBHANAMICI
09-08-2021, 08:54
Paradossalmente a liquido lo senti di piu, anche la mia 3080 ne soffre, ma solamente durante i benchmark, in gioco non lo sento quasi mai.
Uhm e allora probabilmente sarà un problema delle asus strix un pò più tirate, a cui si può pure non far caso, tanto come dici pure tu è solo nei bench che si presenta il problema.
TigerTank
09-08-2021, 09:27
Uhm e allora probabilmente sarà un problema delle asus strix un pò più tirate, a cui si può pure non far caso, tanto come dici pure tu è solo nei bench che si presenta il problema.
Ma guarda che le Strix non sono più tirate di altre...a livello gpu la tiri se ti capita ben binnata :)
Anzi a maggior ragione essendo schede come la Strix ben progettate, il carico energetico dovrebbe essere meglio distribuito e meno stressante(e dunque più stabile) che su alimentazioni più risicate e di minor qualità.
Il coil whine dipende purtroppo dal fatto che sulla scheda, anche se di qualità, capitino degli induttori(cioè le famose bobine di rame) che "vibrano".
Finchè capita solo in bench, pazienza....anche se ormai specialmente in fullHD da competizione siamo arrivati ad avere dei monitor a refresh così alti che praticamente le schede con tale "problema", oltre che scaldare un botto, potrebbero farsi sentire di più anche in gaming (salvo uno giochi senza vsync anche su un 60Hz).
Non ti fa stare male a vedere oltre 2000 euro di scheda, che lavora ore e ore consecutive fissa al 100%? Io ci provai per sfizio un giorno e abbandonai subito l’idea…
Più che altro imho sarebbe ora che ad una scheda del genere accorpasse almeno un bel 21:9 da gaming 1440p o 1600p a refresh maggiorato. :cool:
Ma con le FE non c’è possibilità di andare oltre i 400w di PL?
ROBHANAMICI
09-08-2021, 09:43
Ma guarda che le Strix non sono più tirate di altre...a livello gpu la tiri se ti capita ben binnata :)
Anzi a maggior ragione essendo schede come la Strix ben progettate, il carico energetico dovrebbe essere meglio distribuito e meno stressante(e dunque più stabile) che su alimentazioni più risicate e di minor qualità.
Il coil whine dipende purtroppo dal fatto che sulla scheda, anche se di qualità, capitino degli induttori(cioè le famose bobine di rame) che "vibrano".
Finchè capita solo in bench, pazienza....anche se ormai specialmente in fullHD da competizione siamo arrivati ad avere dei monitor a refresh così alti che praticamente le schede con tale "problema", oltre che scaldare un botto, potrebbero farsi sentire di più anche in gaming (salvo uno giochi senza vsync anche su un 60Hz).
Si lo so da cosa dipende, ragà non siate pignoli dai, più tirate intendevo che operano a frequenze operative più spinte rispetto alle altre, insomma non sono nato ieri nel mondo dell'informatica le capisco certe cose :D :)
TigerTank
09-08-2021, 09:53
Si lo so da cosa dipende, ragà non siate pignoli dai, più tirate intendevo che operano a frequenze operative più spinte rispetto alle altre, insomma non sono nato ieri nel mondo dell'informatica le capisco certe cose :D :)
Ahahah ma figurati! :D
Era solo per dire che di fabbrica mi pare sia settata a 1860MHz come la SuprimX o la Gigabyte Extreme. E con 480W di PL.
Quindi diciamo allineata ad altre ma poi l'effettiva bontà della gpu la scopri tra boost effettivo e OC ulteriore. :cool:
Il coil whine credo sia purtroppo una "rogna" parallela che può capitare anche su schede di qualità...dove ci dovrebbero essere induttori in teoria più selezionati.
ROBHANAMICI
09-08-2021, 10:01
Piccola aggiunta: 1890 mhz in oc mode e 1860 mhz in gaming mode, belle bestie insomma, il buon kiwida ha una gpu binnata bene, ma già parte da una buona base :D
Beh 480w di pl è tanta, tantissima roba :sofico:
Il coil whine credo sia purtroppo una "rogna" parallela che può capitare anche su schede di qualità...dove ci dovrebbero essere induttori in teoria più selezionati.
Si ma assolutamente anch'io "all'epoca" ne ho sofferto su schede video di ottima qualità, come la palit superjetstrem 1080 che ai tempi era una delle migliori gpu a livello di sistema di dissipazione.
Paradossalmente a liquido lo senti di piu, anche la mia 3080 ne soffre, ma solamente durante i benchmark, in gioco non lo sento quasi mai.
Non ti fa stare male a vedere oltre 2000 euro di scheda, che lavora ore e ore consecutive fissa al 100%? Io ci provai per sfizio un giorno e abbandonai subito l’idea…
Si in gioco non lo fa, è silenziosissima, sul 1080p a 144hz finalmente cappo il monitor a 141HZ e non si sente nulla, sul 4K da 55" è uno spettacolo per gli occhi. Considera che io ho un Sony A1 del 2018, quindi niete VRR ne Sync di alcun che, ma finalmente avere una scheda che mi cappa il TV a 60 mi ha eliminato completamente tearing e stutter, davvero un mostro.
Per la questione mining, no non mi scoccia, anzi, considera che io ho modo di giocare e pasticciare al pc solo la sera e nei weekend. Vedere 2000 euro li fermi spenti a prendere polvere 14 ore al giorno mi farebbe impazzire e non ci fosse stato il mining non avrei mai preso una Ampere del genere per giocare e basta, inoltre anche l'impianto a liquido finalmente si fa valere oltre che nel gaming anche in mining con temperature da favola, e ben venga la manutenzione annuale. Ti correggo solo su un punto, la scheda non è al 100% il core in mining è a 1500 Mhz ed il PL ridotto al 78%, la scheda assorbe 307W dei 480 disponibili, praticamente se la ride (l'IMC un po meno ma almeno sta fresco, più fresco che ad aria in idle), certo ad aria non sarebbe cosa, con le memorie a 90°, ma a me stanno a 69° ed il core a 41°, quindi no, non mi secca per nulla. :D
Più che altro imho sarebbe ora che ad una scheda del genere accorpasse almeno un bel 21:9 da gaming 1440p o 1600p a refresh maggiorato. :cool:
Si hai ragione, ma considera che io ho un OLED 4K, comunque si ho una mezza idea di cosa prendermi per natale..
https://i.imgur.com/aEkSnM8l.png
Direi ottimo chip binnato. Kn credo però che i crash in oc Sulla ram dipendano da loro, perché hanno il controllo e correggono gli errori. Possibile che tirare in quel modo la gpu dando solo 1v , sei al limite della stabilità e con un oc sulla vram , vai a spingere ulteriormente il tutto e crashi. Prov titoli in RT per testare la stabilità. Ripeto, tenere anche per un bench i 2160/2130mhz a 1v è tanta roba
Si meno male un po di :ciapet: ogni tanto non guasta.
Per la questione OC e memorie, ne convengo, 1V a 2160/2130 sono ottimi ma al limite, la cosa rognosa è che con 1,0012 alle stesse frequenze si va già a sbattere contro il PL di 480W, questa scheda avrebbe bisogno di un bios da 550W per andare bene ed essere stiracchiata a dovere.
Da quel che ho potuto provare ieri sera, se alzo il voltaggio a pari frequenze sforo il PL, se alzo le frequenze a pari voltaggio crasha, direi che sono al limite, sinceramente non ho altre idee, l'OC/Undervolt ormai si risolve in pochi minuti su queste nuove gen.
Tra l'altro come abilito il resizable bar? Il bios della mobo è aggiornato ed attivo, devo fare qualcosa con la GPU?
ROBHANAMICI
09-08-2021, 10:17
Ma non vi sembra di tirarle un pò troppo queste schede? Ocio che la gen 4000 richiederà anche maggiori risorse a livello di alimentazione.
Per attivare il resizable bar, se è già attivo da bios, devi disabilitare dal bios stesso il "csm compatibility mode" e scaricarti l'ultimo firmware aggiornato della scheda che ti abiliti per l'appunto questa funzione. Se è attivo poi avrai diverse possibilità di vederlo, o dal pannello di controllo nvidia e anche usando gpu-z
TigerTank
09-08-2021, 10:19
Si ma assolutamente anch'io "all'epoca" ne ho sofferto su schede video di ottima qualità, come la palit superjetstrem 1080 che ai tempi era una delle migliori gpu a livello di sistema di dissipazione.
Vero, diciamo che ogi la differenza è che con i monitor da gaming via via più recenti si sono alzate le soglie di gioco in termini di frequenza e dunque framerate già sotto cap gsync+vsync per cui aumenta lo stress sulle vga. Con giochi mattone che sommando questa cosa diventano praticamente anche dei bench di stabilità :D
E di conseguenza direi che si sia alzata anche l'importanza della qualità di induttori e simili perchè sono aumentate le condizioni per cui una vga potrebbe mettersi a fischiare pure in gaming.
Si hai ragione, ma considera che io ho un OLED 4K, comunque si ho una mezza idea di cosa prendermi per natale..
https://i.imgur.com/aEkSnM8l.png
Sì sì visto, davvero bello! Anche se per quella bestia imho ci vorrebbe un 120Hz o appunto un monitor da gaming. Io però se hai spazio ti consiglierei un 21:9....e ti posso confermare quello che dissero anche a me ai tempi. Quando provi un 21:9 fai fatica a tornare ad un 16:9 (salvo sia una TV grossa) :D
Per la resizable bar già in gpu-z puoi vedere se sia attiva o meno.
ROBHANAMICI
09-08-2021, 10:22
Uhm vedasi anche caso "new world", anche se lo so che non centra moltissimo :asd:
Io come da vostri consigli ho impostato il vsync attivo sul pannello di controllo nvidia con gsync attivo e vsync off in game, non so se ho fatto bene :D
Ma non vi sembra di tirarle un pò troppo queste schede? Ocio che la gen 4000 richiederà anche maggiori risorse a livello di alimentazione.
Speriamo di no va, che il nuovo PP porti incrementi prestazionali e migliori l'efficienza, qua già così siamo a livelli delle Fermi (480 remember?)
Per attivare il resizable bar, se è già attivo da bios, devi disabilitare dal bios stesso il "csm compatibility mode" e scaricarti l'ultimo firmware aggiornato della scheda che ti abiliti per l'appunto questa funzione. Se è attivo poi avrai diverse possibilità di vederlo, o dal pannello di controllo nvidia e anche usando gpu-z
Ok Grazie andrò a vedere se ci sono firmware aggiornati sul sito ROG...o su OC.Net :D
TigerTank
09-08-2021, 10:29
Uhm vedasi anche caso "new world", anche se lo so che non centra moltissimo :asd:
Io come da vostri consigli ho impostato il vsync attivo sul pannello di controllo nvidia con gsync attivo e vsync off in game, non so se ho fatto bene :D
Imho benissimo altrimenti puoi anche sperimentare vsync off nel profilo del gioco nel pannello nvidia + frame limiter(sempre da pannello o da RTSS).
Di solito dicono che il meglio si ottenga cappando il framerate a qualche unità sotto alla soglia massima del range del monitor in quanto a refresh e quindi a gsync. ma sta a te provare o meno.
Pure io spesso faccio come te e se va tutto bene non provo altro :)
Al massimo se giochi in dx11, puoi provare a settare la latenza su Ultra, la quale abbassa automaticamente la soglia massima di qualche unità.
ROBHANAMICI
09-08-2021, 10:30
Speriamo ma si parla anche di schede non top di gamma con pl totali superiori ai 500w, non so quanto possa giovarne l'efficienza per i nostri poveri alimentatori a scapito degli incrementi prestazionali
Speriamo di no va, che il nuovo PP porti incrementi prestazionali e migliori l'efficienza, qua già così siamo a livelli delle Fermi (480 remember?)
Yeah i remember :D :asd:
Imho benissimo altrimenti puoi anche sperimentare vsync off nel profilo del gioco nel pannello nvidia + frame limiter(sempre da pannello o da RTSS).
Di solito dicono che il meglio si ottenga cappando il framerate a qualche unità sotto alla soglia massima del range del monitor in quanto a refresh e quindi a gsync. ma sta a te provare o meno.
Pure io spesso faccio come te e se va tutto bene non provo altro :)
Al massimo se giochi in dx11, puoi provare a settare la latenza su Ultra, la quale abbassa automaticamente la soglia massima di qualche unità.
Ti dirò ho sempre provato la combinazione di sopra e mi sono trovato sempre benissimo (diciamo che gli esperimenti di questo tipo non sono nel mio bagaglio culturale :D). Gioco in dx12
TigerTank
09-08-2021, 10:36
Si hai ragione, ma considera che io ho un OLED 4K, comunque si ho una mezza idea di cosa prendermi per natale..
https://i.imgur.com/aEkSnM8l.png
Sì sì visto, davvero bello! Anche se per quella bestia imho ci vorrebbe un 120Hz o appunto un monitor da gaming. Io però se hai spazio ti consiglierei un 21:9....e ti posso confermare quello che dissero anche a me ai tempi. Quando provi un 21:9 fai fatica a tornare ad un 16:9 (salvo sia una TV grossa) :D
Circa la resizable bar siccome hai Asus come me, puoi andare QUI (https://www.asus.com/support/FAQ/1046107/).
Dopo che flashi il bios in alto a destra appare anche un pulsantino dedicato.
E per verificare che sia attiva ti basta aprire gpu-z :)
Anche se in versione beta, io con la mia per ora non sto avendo alcun problema. E fortunatamente avevo già windows in GPT.
Ti dirò ho sempre provato la combinazione di sopra e mi sono trovato sempre benissimo (diciamo che gli esperimenti di questo tipo non sono nel mio bagaglio culturale :D). Gioco in dx12
Ottimo, io uguale :)
La questione latenza Ultra funziona solo in caso di giochi dx11, in dx12 e Vulkan si "autoregolano".
Micropoint_ITA
09-08-2021, 10:38
Io oggi o domani se ho tempo lancio un bench con memorie a stock, tengo solo le frequenze a 1950 con il voltaggio a 975mv, vediamo se faccio lo stesso punteggio su Timespy, poi faccio bench consecutivi su Exodus e se le prestazioni rimangono le stesse vi faccio sapere. Comunque per la cronaca su Timespy con questi valori realizzo 62 gradi medi.
Preferisco mantenere la scheda stabile a lungo termine piuttosto che ottenere 200/300 punti in più su Timespy e poi vedere perdere troppo in lunghi test.
ROBHANAMICI
09-08-2021, 10:39
Ma per la 3080ti invece dove si può prendere il firmware aggiornato? Basta sempre e solo flashare il bios? Chissà se techpowerup ha i bios aggiornati. Grazie mille.
Quoto in toto quanto detto da Tiger, in 21:9 e con un bello schermo 34" è tutto un altro mondo e non ritorni indietro, è un pò lo stesso discorso del passaggio da un monitor a 60 hz a uno a 144 hz che si faceva qualche anno fa.
Dattofree
09-08-2021, 10:41
Ma per la 3080ti invece dove si può prendere il firmware aggiornato? Basta sempre e solo flashare il bios? Chissà se techpowerup ha i bios aggiornati. Grazie mille.
Quoto in toto quanto detto da Tiger, in 21:9 e con un bello schermo 34" è tutto un altro mondo e non ritorni indietro, è un pò lo stesso discorso del passaggio da un monitor a 60 hz a uno a 144 hz che si faceva qualche anno fa.
Tutte le ti che ho provato non hanno bios nuovi.
ROBHANAMICI
09-08-2021, 10:43
E perchè ti diro, io ho messo, se non ricordo male, quello che aveva rilasciato nvidia sulla mia zotac 3090 qualche mese fa e adesso la funzione me la dà ancora attiva, non è che ci potrebbero essere problemi di incompatibilità? O posso stare tranquillo?
Tutte le ti che ho provato non hanno bios nuovi.
Si hai ragione sulla tuf neanche è stato rilasciato su tpu
Quoto in toto quanto detto da Tiger, in 21:9 e con un bello schermo 34" è tutto un altro mondo e non ritorni indietro, è un pò lo stesso discorso del passaggio da un monitor a 60 hz a uno a 144 hz che si faceva qualche anno fa.
Anche se per quella bestia imho ci vorrebbe un 120Hz o appunto un monitor da gaming. Io però se hai spazio ti consiglierei un 21:9....e ti posso confermare quello che dissero anche a me ai tempi. Quando provi un 21:9 fai fatica a tornare ad un 16:9 (salvo sia una TV grossa) :D
Purtroppo lo spazio non c'è max 60cm e stop, tuttavia ho avuto modo di provare un UW ed è davvero bello, solo mi turbava il dover girare la testa.
Circa la resizable bar siccome hai Asus come me, puoi andare QUI (https://www.asus.com/support/FAQ/1046107/).
Dopo che flashi il bios in alto a destra appare anche un pulsantino dedicato.
E per verificare che sia attiva ti basta aprire gpu-z :)
Anche se in versione beta, io con la mia per ora non sto avendo alcun problema. E fortunatamente avevo già windows in GPT.
Ottimo, io uguale :)
La questione latenza Ultra funziona solo in caso di giochi dx11, in dx12 e Vulkan si "autoregolano".
Grazie mille ci butto un occhio, per il GPT sono a posto.
ROBHANAMICI
09-08-2021, 10:46
Purtroppo lo spazio non c'è max 60cm e stop, tuttavia ho avuto modo di provare un UW ed è davvero bello, solo mi turbava il dover girare la testa.
Basta prenderne uno con la curvatura però se non hai la spazio come si dice amen :D
TigerTank
09-08-2021, 10:49
Ma per la 3080ti invece dove si può prendere il firmware aggiornato? Basta sempre e solo flashare il bios? Chissà se techpowerup ha i bios aggiornati. Grazie mille.
Quoto in toto quanto detto da Tiger, in 21:9 e con un bello schermo 34" è tutto un altro mondo e non ritorni indietro, è un pò lo stesso discorso del passaggio da un monitor a 60 hz a uno a 144 hz che si faceva qualche anno fa.
Guarda io sinceramente aggiornerei solo se ci fosse un qualche aggiornamento ufficiale. O al massimo più che il database di TechpowerUp consulterei qualche forum circa la tua scheda.
Comunque occhio all'uso delle Asus perchè per caso ho notato che tra le clausule di esclusione dal diritto di garanzia hanno inserito anche:
Damage to the Product that arises from cryptocurrency mining or related activities unless the model is especially designed for mining.
:sofico:
paolox86
09-08-2021, 10:50
https://uploads.tapatalk-cdn.com/20210809/89ba0282574db43a5a89a83191e3fb7b.jpg
Ragazzi sono emozionato, finalmente dopo 1 anno dalla vendita della 2080 ti riesco a rimettere nel case una VGA discreta
Dattofree
09-08-2021, 10:54
ti ammazzi di giochi :D
ROBHANAMICI
09-08-2021, 10:55
Guarda io sinceramente aggiornerei solo se ci fosse un qualche aggiornamento ufficiale. O al massimo più che il database di TechpowerUp consulterei qualche forum circa la tua scheda.
Si come dicevo sopra io ho messo quello rilasciato da nvidia ma non mi ricordo se era solo per la 3090, però mi sembra strano visto che la funzione me la dà attiva anche con la asus 3080ti.
Ragazzi sono emozionato, finalmente dopo 1 anno dalla vendita della 2080 ti riesco a rimettere nel case una VGA discreta
Benvenuto nel club ;)
Ragazzi sono emozionato, finalmente dopo 1 anno dalla vendita della 2080 ti riesco a rimettere nel case una VGA discreta
Bentornato, adesso recuperiamo gli arretrati!
Bentornato, adesso recuperiamo gli arretrati!
Ciao, ma hai liquidato anche il retro della scheda? Dove l'hai trovato? Perchè EK mi da prenotabile e spedito per settembre.
Ciao, ma hai liquidato anche il retro della scheda? Dove l'hai trovato? Perchè EK mi da prenotabile e spedito per settembre.
Si l'ho preso da Ek un mesetto fa circa.
TigerTank
09-08-2021, 11:33
Ciao, ma hai liquidato anche il retro della scheda? Dove l'hai trovato? Perchè EK mi da prenotabile e spedito per settembre.
A meno che tu non abbia anche una 3090, a te non serve con la 3080Ti :)
Non hai chip di vram sul retro della scheda.
Si l'ho preso da Ek un mesetto fa circa.
Avevi già in mente di prendere la Strix. Io non sapevo neanche che modello avrei trovato.
A meno che tu non abbia anche una 3090, a te non serve con la 3080Ti :)
Non hai chip di vram sul retro della scheda.
Infatti ci sto facendo un pensierino sulla EVGA 3090 FTW.
ROBHANAMICI
09-08-2021, 11:40
Ma no, soldi sprecati.
Purtroppo il PL è restrittivo e a 1,0012v si sfora già il PL, ci vorrebbe un bios da 500W, comunque lato memorie al minimo incremento crasha tutto, nonostante le temp decisamente buone.
Se non ne hai abbastanza c'è sempre il Kingpin XOC da 1000W
Ma no, soldi sprecati.
Nuovo processore intel, scheda madre 690, ddr5, case scrivania Lian-li.
Solo al pensiero.
ROBHANAMICI
09-08-2021, 12:12
Hai dimenticato anche nuovo dissipatore, in attesa di adattatori, le ddr5 all'uscita ma anche no.... :asd: ;)
Thunder-74
09-08-2021, 12:14
Evga ha o sta per publicare un bios per la 3090 per risolvere il problema ic2 (rpm ventole) nato con new world.
Nel frattempo il problema verrebbe risolto se tenuto aperto precisonX parole dì Jacob …
Inviato dal mio iPhone X utilizzando Tapatalk
Evga ha o sta per publicare un bios per la 3090 per risolvere il problema ic2 (rpm ventole) nato con new world.
Nel frattempo il problema verrebbe risolto se tenuto aperto precisonX parole dì Jacob …
Inviato dal mio iPhone X utilizzando Tapatalk
Ventole??
Perchè hanno anche le ventole le Vga ?? :Prrr:
https://videocardz.com/newz/evga-geforce-rtx-3090-ftw3-rpm-sensor-spikes-lead-to-a-new-firmware-update
Comunque chi ha una RTX 3090 è gioca a una roba del genere,si merita che pigli fuoco :ciapet:
Avevi già in mente di prendere la Strix. Io non sapevo neanche che modello avrei trovato.
Eh ti capisco, io ho vacillato solo qualche istante ma, per la FTW3, ma poi sono rinsavito, per il pc gaming solo Strix, HOF o Kingpin.
Infatti ci sto facendo un pensierino sulla EVGA 3090 FTW.
Il Backplate non raffredda solo le memorie ma anche le fasi e il back della GPU, ed è a contatto con il back dei moduli ram sul front. Certo che se però non usi "Programmi che fanno intensivo uso delle memorie", e con una LHR sarebbe un suicidio economico, non è molto utile, poi a livello estetico beh..tutta la vita.
https://i.imgur.com/ZoJdjhvl.jpg (https://i.imgur.com/ZoJdjhv.jpg)
https://i.imgur.com/fc0oTskl.jpg (https://i.imgur.com/fc0oTsk.jpg)
https://i.imgur.com/LjFKSJgl.jpg (https://i.imgur.com/LjFKSJg.jpg)
TigerTank
09-08-2021, 13:13
Infatti ci sto facendo un pensierino sulla EVGA 3090 FTW.
Da 3080Ti FTW3 a 3090FTW3 nella generazione da record per i prezzi delle vga e per i più ridotti stacchi prestazionali tra le schede(da x80 a x90) :D
Ragazzi ok che con i propri soldi ognuno deve fare ciò che vuole ma certe intenzioni di "upgrade" dichiarate a volte sono un tantinello comiche.
Piuttosto ti direi di mettere la BP attiva sulla tua 3080Ti :D
Se non ne hai abbastanza c'è sempre il Kingpin XOC da 1000W
Ahahah roba da azoto liquido :cool:
Il Backplate non raffredda solo le memorie ma anche le fasi e il back della GPU, ed è a contatto con il back dei moduli ram sul front. Certo che se però non usi "Programmi che fanno intensivo uso delle memorie", e con una LHR sarebbe un suicidio economico, non è molto utile, poi a livello estetico beh..tutta la vita.
Bah ti dirò che sinceramente con la BP attiva il tutto imho diventa eccessivo, anche se utile nel tuo caso.
Però a livello estetico se la vga ce l'hai in verticale, della BP attiva o meno non si vede nulla :D
Comunque diciamo che imho l'unico neo della Strix rispetto ad una Evga è che quest'ultima volendo la puoi aprire e wubbare a piacere.
Mentre se la Strix la liquidi in teoria ti sei già mangiato la garanzia.
Eh ti capisco, io ho vacillato solo qualche istante ma, per la FTW3, ma poi sono rinsavito, per il pc gaming solo Strix, HOF o Kingpin.
Tanto tanto la Strix,ma le altre 2 sono un tantinello sprecate per uso gaming.
Poi ovviamente uno la può prendere anche per giocare al campo minato o per sfizio,ci mancherebbe :)
Da 3080Ti FTW3 a 3090FTW3 nella generazione da record per i prezzi delle vga e per i più ridotti stacchi prestazionali tra le schede(da x80 a x90) :D
Ragazzi ok che con i propri soldi ognuno deve fare ciò che vuole ma certe intenzioni di "upgrade" dichiarate a volte sono un tantinello comiche.
Ahahah roba da azoto liquido :D
C'è sempre un alternativa,se 480W sono pochi :D
Io mi accontento dei miei umili 450W lol
Da 3080Ti FTW3 a 3090FTW3 nella generazione da record per i prezzi delle vga e per i più ridotti stacchi prestazionali tra le schede(da x80 a x90) :D
Beh insomma, in game è vero, ma con una 3080Ti mini a 65Mh/s a 320W, con una 3090 a 120 Mh/s a 300W, direi che tra le due si fa in fretta a scegliere.
Ahahah roba da azoto liquido :D
Ecco beh non esageriamo :D 500W sarebbero più che sufficienti. :sofico:
Bah ti dirò che sinceramente con la BP attiva il tutto imho diventa eccessivo.
Ma poi a livello estetico se la vga ce l'hai in verticale, della BP attiva o meno non si vede nulla :D
E vero, ma nel mio caso è stata una scelta necessaria più che estetica, non avrei mai fatto minare una scheda del genere ad aria con le memorie a 90° fissi h24, ma anche in game sarei stato perplesso.
Per la questione garanzia, facendo gli scongiuri, ho già recuperato gli sticker con il cerchietto rosso più sottile. Di 2080Ti ne ho mandate in dietro 2 fuse direttamente ad Asus con sticker riapplicati, nessun problema, sostituita entrambe le volte.
Tanto tanto la Strix,ma le altre 2 sono un tantinello sprecate per uso gaming.
Poi ovviamente uno la può prendere anche per giocare al campo minato o per sfizio,ci mancherebbe :)
Si infatti mi sono sempre autolimitato alle Strix, anche se una delle due da mettere in vetrinetta....prima o poi...immagina una teca con tutte le Kingpin. :oink:
TigerTank
09-08-2021, 13:29
C'è sempre un alternativa,se 480W sono pochi :D
Io mi accontento dei miei umili 450W lol
Io ho ancora quello da 400W perchè ho visto che con il profilo ottimizzato che uso(1980Mhz@0,950V), anche in bench a briglia sciolta la scheda viaggia sui 320-330W :)
A liquido però lo avrei sicuramente provato.
Beh insomma, in game è vero, ma con una 3080Ti mini a 65Mh/s a 320W, con una 3090 a 120 Mh/s a 300W, direi che tra le due si fa in fretta a scegliere.
Ah beh per quello è vero, io le contemplo solo da un punto di vista gaming :D
E vero, ma nel mio caso è stata una scelta necessaria più che estetica, non avrei mai fatto minare una scheda del genere ad aria con le memorie a 90° fissi h24, ma anche in game sarei stato perplesso.
Sì sì infatti sopra ho aggiunto che nel tuo caso con una 3090 è utilità ma avevi già quotato.
Io ho ancora quello da 400W perchè ho visto che con il profilo ottimizzato che uso(1980Mhz@0,950V), anche in bench a briglia sciolta la scheda viaggia sui 320-330W :)
A liquido però lo avrei sicuramente provato.
Guarda se mantieni un profilo da 1v è difficile sforare i 400W,poi fai conto che mettendola a liquido,riguadagni qualche watt che va sprecato per le ventole,e come ben sai con temp più basse consumi qualcosa in meno
Guarda se mantieni un profilo da 1v è difficile sforare i 400W,poi fai conto che mettendola a liquido,riguadagni qualche watt che va sprecato per le ventole,e come ben sai con temp più basse consumi qualcosa in meno
Beh più o meno, perché non so se cambia da scheda a scheda ma con 1V se superi i 2GHZ ho visto raramente meno di 400W di consumo, forse tenendosi un pelo sotto sui più conservativi 1950Mhz potrebbe darsi, ma devo fare prove.
La cosa richiede sperimentazioni, e non credo che quella di Tiger differisca molto inoltre la sua vdeo che tiene i 1980@0.95v, quindi molto ben ottimizzata.
Beh più o meno, perché non so se cambia da scheda a scheda ma con 1V se superi i 2GHZ ho visto raramente meno di 400W di consumo, forse tenendosi un pelo sotto sui più conservativi 1950Mhz potrebbe darsi, ma devo fare prove.
La cosa richiede sperimentazioni, e non credo che quella di Tiger differisca molto.
Noi abbiamo la RTX 3080,consumi sono minori ;)
Io la mia la sto tenendo a 2115Mhz a 1v con memorie stock,nei giochi più energivori si sfiora di poco i 400W
TigerTank
09-08-2021, 14:04
Beh più o meno, perché non so se cambia da scheda a scheda ma con 1V se superi i 2GHZ ho visto raramente meno di 400W di consumo, forse tenendosi un pelo sotto sui più conservativi 1950Mhz potrebbe darsi, ma devo fare prove.
La cosa richiede sperimentazioni, e non credo che quella di Tiger differisca molto inoltre la sua vdeo che tiene i 1980@0.95v, quindi molto ben ottimizzata.
Eh sì facile che a parità di condizioni la tua sia più energivora. Ma alla fine a liquido il problema del non farla scaldare troppo si ridimensiona per cui è più facile testarla mantenendo il più possibile una X frequenza. E credo dando la priorità alla temp. in MSI afterburner.
Più che ben ottimizzata diciamo che ho seguito i preziosi consigli di chi era già arrivato al dunque da parecchi mesi e impostato una situazione simile come status da gaming ad aria :)
E vedo che si sta comportando bene ed in modo ottimale anche con RT+DLSS.
Di tirarla ad aria non ho molto interesse, ho provato a benchare a 2100MHz ma con il voltaggio default scalda davvero inutilmente un bel pò di più e taglia.
Di conseguenza ho lasciato perdere l'uso del bios 450W.
Valuterò se mi verrà la scimmia per il wubbo ma se già adesso che è estate(e ho 24-25°C in taverna) mantiene temperature massime accettabili senza che le ventole diventino un frullatore, nella stagione fredda in cui avrò 19-20°C potrà solo andare meglio.
dinamite2
09-08-2021, 16:03
Beh insomma, in game è vero, ma con una 3080Ti mini a 65Mh/s a 320W, con una 3090 a 120 Mh/s a 300W, direi che tra le due si fa in fretta a scegliere.
io non ne capisco un tubo, sono sincero, ma quando provai per un solo giorno con la mia 3080 arrivavo a 85Mh/s, quindi immagino che una Ti possa andare di piu...
https://i.postimg.cc/QFKSmzcz/mining-undervolt.jpg (https://postimg.cc/QFKSmzcz)
io non ne capisco un tubo, sono sincero, ma quando provai per un solo giorno con la mia 3080 arrivavo a 85Mh/s, quindi immagino che una Ti possa andare di piu...
https://i.postimg.cc/QFKSmzcz/mining-undervolt.jpg (https://postimg.cc/QFKSmzcz)
Dimentichi che le 3080ti nascono tutte LHR quindi in mining vanno molto di meno di una 3080 normale
demonangel
09-08-2021, 16:32
io non ne capisco un tubo, sono sincero, ma quando provai per un solo giorno con la mia 3080 arrivavo a 85Mh/s, quindi immagino che una Ti possa andare di piu...
https://i.postimg.cc/QFKSmzcz/mining-undervolt.jpg (https://postimg.cc/QFKSmzcz)
Le 3080Ti a differenza delle 3080 e 3090, sono uscite con già la strozzatura per il mining
dinamite2
09-08-2021, 16:37
ah gia certo...
Appunto mi sembrava strano, che la Ti andasse di meno. :D
Da 3080Ti FTW3 a 3090FTW3 nella generazione da record per i prezzi delle vga e per i più ridotti stacchi prestazionali tra le schede(da x80 a x90) :D
Ragazzi ok che con i propri soldi ognuno deve fare ciò che vuole ma certe intenzioni di "upgrade" dichiarate a volte sono un tantinello comiche.
Piuttosto ti direi di mettere la BP attiva sulla tua 3080Ti :D
Non è vero, ho un amico che mi pagherebbe bene la 3080TI e la 3090 la pagherei a prezzo di listino Evga. Mi è arrivata l'email, allora ho preferito la 3090 al posto della 3080.
La 3080ti lo pagata 200 euri in più di listino Evga è stato un buon affare.
ROBHANAMICI
09-08-2021, 17:21
Si ma se giochi solo non ti porta miglioramenti prestazionali, anzi scalda e taglia anche di più
TigerTank
09-08-2021, 17:24
Non è vero, ho un amico che mi pagherebbe bene la 3080TI e la 3090 la pagherei a prezzo di listino Evga. Mi è arrivata l'email, allora ho preferito la 3090 al posto della 3080.
La 3080ti lo pagata 200 euri in più di listino Evga è stato un buon affare.
Sì ma a meno che non mini, non usi l'nvlink o hai bisogno di più di 12GB a livello pro...non ci guadagni quasi nulla :)
Sarebbe un sidegrade motivato solo se l'amico per la TI fosse così ingenuo da sganciarti l'equivalente o quasi di quello che spendi per la 3090 FTW3...e cioè quasi 1980€ di listino evga a fronte dei 1500€ di listino della 3080TI FTW3 :stordita:
Se invece essendo un amico ci devi rimettere, imho non ne vale la pena e tanto vale che tieni la 3080Ti. Il meglio attuale per il gaming.
Si ma se giochi solo non ti porta miglioramenti prestazionali, anzi scalda e taglia anche di più
Si lo so ma era più per sfizio, se non mi arrivava l'email non ci pensavo.
Sì ma a meno che non mini, non usi l'nvlink o hai bisogno di più di 12GB a livello pro...non ci guadagni quasi nulla :)
Sarebbe un sidegrade motivato solo se l'amico per la TI fosse così ingenuo da sganciarti l'equivalente o quasi di quello che spendi per la 3090 FTW3...e cioè quasi 1980€ di listino evga a fronte dei 1500€ di listino della 3080TI FTW3 :stordita:
Se invece essendo un amico ci devi rimettere, imho non ne vale la pena e tanto vale che tieni la 3080Ti. Il meglio attuale per il gaming.
Sul sito Evga sta 1225 euri + 8% di IVA. Io lo pagata 1450 ivata + 80 di spedizione espressa per averla in 1 giorno.
Comunque non ho fatto in tempo a dirgli che in caso c'è la 3090. la presa. Qui i prezzi delle schede video sono ancora alle stelle, specialmente le 3080 di qualsiasi marca.
mattxx88
09-08-2021, 21:54
Direi ottimo chip binnato. Kn credo però che i crash in oc Sulla ram dipendano da loro, perché hanno il controllo e correggono gli errori. Possibile che tirare in quel modo la gpu dando solo 1v , sei al limite della stabilità e con un oc sulla vram , vai a spingere ulteriormente il tutto e crashi. Prov titoli in RT per testare la stabilità. Ripeto, tenere anche per un bench i 2160/2130mhz a 1v è tanta roba
Inviato dal mio iPhone X utilizzando Tapatalk
per me ci sono incongruenze di clock, tra il mostrato e il reale clock sparato dalla scheda
e da come ha occato lui é molto probabile la cosa (intendo come ha usato la curva)
a me da score piu alti di 400 pt con le stesse freq e voltaggi suoi (solo che le mie frequenze sono reali):
https://i.ibb.co/hfbwF8y/3dmark.png (https://ibb.co/RyfdTH9)
come ho già detto in vecchi post, bisognerebbe postare dati dell'effective clock riportato in hwinfo invece dei clock farlocchi che puoi creare con le curve altro esempio:
guardate gpu clock vs effective
https://i.ibb.co/rc7K8j0/effective.png (https://ibb.co/LJkDjFR)
consiglio visione
https://www.youtube.com/watch?v=RH3FZXvBkiE
Thunder-74
09-08-2021, 22:18
per me ci sono incongruenze di clock, tra il mostrato e il reale clock sparato dalla scheda
e da come ha occato lui é molto probabile la cosa (intendo come ha usato la curva)
a me da score piu alti di 400 pt con le stesse freq e voltaggi suoi (solo che le mie frequenze sono reali):
https://i.ibb.co/hfbwF8y/3dmark.png (https://ibb.co/RyfdTH9)
come ho già detto in vecchi post, bisognerebbe postare dati dell'effective clock riportato in hwinfo invece dei clock farlocchi che puoi creare con le curve altro esempio:
guardate gpu clock vs effective
https://i.ibb.co/rc7K8j0/effective.png (https://ibb.co/LJkDjFR)
consiglio visione
https://www.youtube.com/watch?v=RH3FZXvBkiE
Ho visto il video da cell, quindi non ho visto i valori ma ho capito che in base alla curva si ab si può essere più o meno una freq reale vicino a quella indicata dalla curva dì ab e freq mostrata in osd . Certo è che mi spiego perché esistano due letture , o meglio perché esiste una lettura reale e una lettura che in realtà sembra essere forzata dai valori impostati su ab. Come se questi vengano mostrati indipendentemente dalla freq della scheda . Valori letti poi sa tutti software. Come posso cerco si approfondire questa real frequency e se scopro qualcosa , vi posto.
Interessante comunque
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
10-08-2021, 07:38
Sul sito Evga sta 1225 euri + 8% di IVA. Io lo pagata 1450 ivata + 80 di spedizione espressa per averla in 1 giorno.
Comunque non ho fatto in tempo a dirgli che in caso c'è la 3090. la presa. Qui i prezzi delle schede video sono ancora alle stelle, specialmente le 3080 di qualsiasi marca.
Come un pò ovunque purtroppo...non ci sono stati i cali che si speravano, soprattutto con l'arrivo delle LHR che si pensava avrebbero cambiato un pò le cose perchè non di interesse per i miners :asd:
E' solo aumentata un pò la disponibilità delle schede.
Ottimo l'8% di iva, per cui presumo che non vivi in Italia con il nostro bellissimo 22% :stordita:
Ho visto il video da cell, quindi non ho visto i valori ma ho capito che in base alla curva si ab si può essere più o meno una freq reale vicino a quella indicata dalla curva dì ab e freq mostrata in osd . Certo è che mi spiego perché esistano due letture , o meglio perché esiste una lettura reale e una lettura che in realtà sembra essere forzata dai valori impostati su ab. Come se questi vengano mostrati indipendentemente dalla freq della scheda . Valori letti poi sa tutti software. Come posso cerco si approfondire questa real frequency e se scopro qualcosa , vi posto.
Interessante comunque
Vero, interessante...tale valore di clock effettivo da dove si prende? Sempre da hwinfo?
Io comunque resto dell'idea che AB non sia ancora al 100% nel gestire queste schede.
Come un pò ovunque purtroppo...non ci sono stati i cali che si speravano, soprattutto con l'arrivo delle LHR che si pensava avrebbero cambiato un po' le cose perché non di interesse per i miners :asd:
E' solo aumentata un po' la disponibilità delle schede.
Ottimo l'8% di iva, per cui presumo che non vivi in Italia con il nostro bellissimo 22% :stordita:
Si un vero pacco le LHR, hanno rovinato una generazione di schede, praticamente a forza di lamentele i gamers hanno ottenuto delle schede che già sono deturpate e laserate lato hardware e adesso anche lato firmware allo stesso prezzo di quelle meno rotte, si aggiunga poi che quest'ultime aumenteranno di prezzo con il tempo perché ricercate tra i miners, praticamente cornuti e mazziati.
Ho un amico con la 3080TI Tuf che in mining è disperato e sinceramente non è che vedo grosse soluzioni, tra temperature delle memorie e quasi 300 watt per 60 Mh/s c'è solo rassegnazionie, si si lato gaming tanta roba, ma la censura non piace a nessuno.
Vero, interessante...tale valore di clock effettivo da dove si prende? Sempre da hwinfo?
Io comunque resto dell'idea che AB non sia ancora al 100% nel gestire queste schede.
Vero stranissimo, come anche strano il fatto che AB quando applichi il profilo immancabilmente sposta la curva e bisogna sempre riapplicarlo almeno un paio di volte, si rischia sempre di trovarsi una 15 ina di Mhz più su o più giù di dove si vuole.
per me ci sono incongruenze di clock, tra il mostrato e il reale clock sparato dalla scheda
e da come ha occato lui é molto probabile la cosa (intendo come ha usato la curva)
a me da score più alti di 400 pt con le stesse freq e voltaggi suoi (solo che le mie frequenze sono reali):
https://i.ibb.co/hfbwF8y/3dmark.png (https://ibb.co/RyfdTH9)
Non ero al correte del clock farlocco, io uso GPUZ e AIDA64 per verificare i clock e sono coerenti, poi considera che era una run di prova, non è che mi sono applicato molto e nemmeno ho chiuso i quasi 30 programmi che mi girano in background nella taskbar, l'ho fatto proprio così a puro titolo di verifica della bontà del silicio.
come ho già detto in vecchi post, bisognerebbe postare dati dell'effective clock riportato in hwinfo invece dei clock farlocchi che puoi creare con le curve altro esempio:
guardate gpu clock vs effective
https://i.ibb.co/rc7K8j0/effective.png (https://ibb.co/LJkDjFR)
consiglio visione
https://www.youtube.com/watch?v=RH3FZXvBkiE
Bene, grazie, gli do uno sguardo e ci vediamo di la nel thread del 3DMark Port Royale, comincia raffreddare i mosfett amico mio :sborone: .
Ormai io mi limito a Time Spy e Port Royale in 3D mark, gli altri non sfruttano abbastanza le schede, poi Boundary e il bench di Metro, anche Superposition lo uso ancora abbastanza, tutto il resto è finito nella cartella Oldies.
Sempre parlando di benchmark le memorie di cui parlavo ieri, in game non fanno gran differenza ma con T-rex ho raggiunto, per puro scopo di bench, i +1850 stabili con Memory juction a 74°, a 1900 non è stabile, a 1950 crash, con il core bloccato a 1515 mhz e voltaggio fissato a 0,715V.
https://i.imgur.com/AgZZ31Ol.jpg (https://i.imgur.com/AgZZ31O.jpg)
ROBHANAMICI
10-08-2021, 08:40
Si lo so ma era più per sfizio, se non mi arrivata l'email non ci pensavo.
Se ti è arrivata meglio così ;)
mattxx88
10-08-2021, 08:55
Ho un amico con la 3080TI Tuf che in mining è disperato e sinceramente non è che vedo grosse soluzioni, tra temperature delle memorie e quasi 300 watt per 60 Mh/s c'è solo rassegnazionie, si si lato gaming tanta roba, ma la censura non piace a nessuno.
Quoto e sottoscrivo
Bene, grazie, gli do uno sguardo e ci vediamo di la nel thread del 3DMark Port Royale, comincia raffreddare i mosfett amico mio :sborone:
i punteggi migliori li ottieni non usando curva, ma sparando gli slider di volt e pl al massimo e occando normalmente, prova e vedrai :)
è l'unico metodo che ti da i clock piu vicini al reale quando sali molto di frequenza
Sempre parlando di benchmark le memorie di cui parlavo ieri, in game non fanno gran differenza ma con T-rex ho raggiunto, per puro scopo di bench, i +1850 stabili con Memory juction a 74°, a 1900 non è stabile, a 1950 crash, con il core bloccato a 1515 mhz e voltaggio fissato a 0,715V.
imho un +1200 a 120mhs è lo sweetspot, bel lavoro quel backplate comunque, impressionante
Thunder-74
10-08-2021, 09:05
Svelato l arcano del real clock di hwinfo.
Praticamente l autore dice che al giorno d oggi la semplice lettura di un software della freq, non è più accurata per via di molti fattori che entrano in gioco per pochissimo temo, generando oscillazioni di clock brevi che spesso i software non riescono a carpire. Per ovviare a questo, praticamente ha definito un periodo polling nel quale fare letture e poi farne una media. Quindi in realtà quella lettura non rappresenta una freq puntuale di picco, ma una media, secondo lui, più veritiera di funzionamento nel periodo considerato.
Lo ha implementato anche per la cpu, per il quale ha rilasciato un post sul forum e dal quale ho dedotto che allo stesso modo ha introdotto il real clock anche per la gpu. Vi lascio il testo tradotto.
È diventata una pratica comune per diversi anni segnalare l'orologio istantaneo (discreto)valori per le CPU. Questo metodo si basa sulla conoscenza del clock bus effettivo (BCLK) e sul campionamento dei rapporti core in momenti specifici. L'orologio risultante è quindi un semplice risultato del rapporto * BCLK. Tale approccio ha funzionato abbastanza bene in passato, ma non è più sufficiente. Nel corso degli anni le CPU sono diventate componenti molto dinamici che possono cambiare i propri parametri operativi centinaia di volte al secondo a seconda di diversi fattori tra cui quantità di carico di lavoro, limiti di temperatura, limiti di corrente e potenza termica/VR, rapporti turbo, TDP dinamici, ecc. Mentre questo metodo rappresenta ancora i valori di clock effettivi e i rapporti riportati corrispondono agli stati P definiti, è diventato insufficiente per fornire una buona panoramica delle dinamiche della CPU, specialmente quando i parametri fluttuano con una frequenza molto più alta di quella che qualsiasi software è in grado di catturare. Un altro svantaggio è che i core delle moderne CPU che non hanno carico di lavoro vengono sospesi (stati C inferiori). In tal caso, quando il software tenta di interrogare il loro stato, li risveglierà brevemente e quindi l'orologio ottenuto non rispetta lo stato di sospensione.
Quindi è necessario utilizzare un nuovo approccio chiamato orologio effettivo . Questo metodo si basa sulla capacità dell'hardware di campionare lo stato effettivo dell'orologio (tutti i suoi livelli) in un determinato intervallo, inclusi gli stati di sospensione (interrotto). Il software interroga quindi il contatore su un periodo di polling specifico, che fornisce il valore medio di tutti gli stati di clock che si sono verificati nell'intervallo specificato. HWiNFO v6.13-3955 Beta introduce la segnalazione di questo orologio.
Molti utenti potrebbero essere sorpresi di quanto sia diverso questo orologio rispetto ai valori di clock tradizionali riportati. Ma si noti che questo valore effettivo è il clock medio nell'intervallo di polling utilizzato in HWiNFO.
Questo nuovo metodo è stato testato su diverse CPU e ha dimostrato di fornire risultati più accurati soprattutto in scenari con valori estremamente fluttuanti.
Inviato dal mio iPad utilizzando Tapatalk
TigerTank
10-08-2021, 09:24
Grazie Thunder, trovato "Gpu Effective Clock" tra le voci aggiungibili da HWInfo all'OSD di AB.
E sì, effetivamente in HWINFO c'è anche "CPU Effective Clock" con tanto di menu a tendina per aprire tutta la lista dei cores.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.