PDA

View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 [67] 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95

TigerTank
06-10-2021, 15:56
che è quello di cui parlavi sopra?

No, intendevo il gpu scheduling, nelle opzioni grafiche di windows :)

Quello si, ma è proprio la struttura che ho fuori dagli occhi, sempre la stessa menata, gli ho concesso/giocato fin troppi capitoli, ma ogni volta, dal 3 in poi, sempre la stessa roba.
Naaa tu non capisci, il top di FC6 non sarà a livello di innovazione grafica e tecnica ma le nuove star Guapo, Chorizo, Chicarron, Boom Boom, Oluso e gli esclusivi K-9000 e Champagne. LINK (https://www.theloadout.com/far-cry-6/amigos-companions-abilities) :cool:

Graphite600T
06-10-2021, 16:17
Quello si, ma è proprio la struttura che ho fuori dagli occhi, sempre la stessa menata, gli ho concesso/giocato fin troppi capitoli, ma ogni volta, dal 3 in poi, sempre la stessa roba.

Blood Dragon è difficilmente raggiungibile: penso sia qualcosa di perfetto sotto ogni punto di vista e dura il giusto tempo per non farti annoiare della dinamica ripetitiva. Poi la colonna sonora.... MAMMA MIA

amon.akira
06-10-2021, 19:55
Certo, vedo cmq che la 3090 in 4k rt stacca le altre.

E' impressionante vedere:
-3090 1080p:80fps RT on
-3090 1440p:78fps RT on
-3090 4k:78fps RT on

si ma non ce una spiegazione logica per cui la 3080ti fa 14fps (22%) in meno a 4k vs la 3090

TigerTank
06-10-2021, 20:37
si ma non ce una spiegazione logica per cui la 3080ti fa 14fps (22%) in meno a 4k vs la 3090

In effetti quei grafici sono un pò strani.
In UHD la 3090 vola con quello stacco quando in QHD la 3080Ti sta ad 1fps sopra alla 3090.
E in quelli della pagina successiva con RT+FSR ad esempio in QHD la 3090 va addirittura sotto a 3070Ti e 2080Ti. Mah...
Sembra che il gioco sbarelli un pò le vga creando cose strane. O c'è stata confusione con i test. :D

mikael84
06-10-2021, 20:41
si ma non ce una spiegazione logica per cui la 3080ti fa 14fps (22%) in meno a 4k vs la 3090

Hanno sbagliato, infatti con FSR fa 77. Me ne sono accorto dopo.
Cmq c'è anche quella di CPUbase
https://www.computerbase.de/2021-10/far-cry-6-benchmark-test/3/#diagramm-far-cry-6-3840-2160

TigerTank
06-10-2021, 20:50
Hanno sbagliato, infatti con FSR fa 77. Me ne sono accorto dopo.
Cmq c'è anche quella di CPUbase
https://www.computerbase.de/2021-10/far-cry-6-benchmark-test/3/#diagramm-far-cry-6-3840-2160

Decisamente più "realistici" :D

amon.akira
06-10-2021, 21:34
Hanno sbagliato, infatti con FSR fa 77. Me ne sono accorto dopo.
Cmq c'è anche quella di CPUbase
https://www.computerbase.de/2021-10/far-cry-6-benchmark-test/3/#diagramm-far-cry-6-3840-2160

cosi già torna, anche se lascia immaginare l uso del raytracing in fc6 a che livello sia :asd:

Dono89
06-10-2021, 21:42
cosi già torna, anche se lascia immaginare l uso del raytracing in fc6 a che livello sia :asd:


Lo si vede anche dalle immagini d'esempio che ha fatto TPU. Praticamente assente.

Alekos Panagulis
06-10-2021, 22:15
hahahah, ci sta. Però come trama/ambientazione non sembra male.Ma dai, la trama è proprio il peggio che può offrire.

L'ambientazione è la solita foresta + spiagge caraibiche.

Mah.

Inviato dal mio IN2023 utilizzando Tapatalk

mikael84
06-10-2021, 23:50
Decisamente più "realistici" :D

Guru3d è da tempo che canna. Già il fatto che non testano le schede vecchie (o meglio lasciano il valore dei primi driver)...:)

cosi già torna, anche se lascia immaginare l uso del raytracing in fc6 a che livello sia :asd:

Sponsorizzato AMD, ci mancherebbe altro.:)
Cmq anche la pecca del DLSS in questo caso.

Blee
07-10-2021, 07:12
Dal punto di vista vga, nessun problema.
E' il nuovo menu Start che imho va decisamente migliorato.

Ora non ricordo se ci fosse già in Windows10 perchè non ho mai usato game mode e simili ma una cosa carina che ho notato nell'11 è che ora nelle impostazioni grafiche c'è un elenco di app e giochi(a cui se ne possono aggiungere altre) per le quali si possono definire le prestazioni.

http://i.imgur.com/97WW202l.jpg (https://imgur.com/97WW202)

Tutti i giochi che ha incluso in lista sono comunque già settati automaticamente per le prestazioni elevate mentre altre app di sistema e programmi per il risparmio.
Il tutto comunque svincolato dalla game mode presente in altra sezione (Giochi).

A me non installa Win 11 perchè pare disabilitato il TPM.... voi avete avuto questo problema?

fraussantin
07-10-2021, 07:13
A me non installa Win 11 perchè pare disabilitato il TPM.... voi avete avuto questo problema?Si su molte schede va attivato da bios

Blee
07-10-2021, 07:16
Si su molte schede va attivato da bios

Pensa te, io pensavo fosse abilitato di default. Spero non crei destabilizzazione...

fraussantin
07-10-2021, 07:21
Pensa te, io pensavo fosse abilitato di default. Spero non crei destabilizzazione...Io per sicurezza l'ho lasciato disattivato perché per adesso non voglio metterlo ( sia mai che wu faccia di sua iniziativa) come sempre aspetto qualche mese.

Casomai se mi capita un weekend dove non ho niente da fare lo provo in vm

Blee
07-10-2021, 07:23
Io per sicurezza l'ho lasciato disattivato perché per adesso non voglio metterlo ( sia mai che wu faccia di sua iniziativa) come sempre aspetto qualche mese.

Casomai se mi capita un weekend dove non ho niente da fare lo provo in vm

Effettivamente non sono molto convinto neanche io ancora. Il sistema va bello liscio così come è, non vorrei creasse casini..

nickname88
07-10-2021, 10:31
Scusate ma le Ampere ( in particolare la 3080 ) supportano correttamente l'HDMI 2.1 ?

O ci sono problemi ?
A collegarla ad un TV avete avuto problemi di funzionamento ?

Alekos Panagulis
07-10-2021, 10:57
Scusate ma le Ampere ( in particolare la 3080 ) supportano correttamente l'HDMI 2.1 ?

O ci sono problemi ?
A collegarla ad un TV avete avuto problemi di funzionamento ?

Funziona bene, ci mancherebbe.
Devi avere il cavo giusto.

Cutter90
07-10-2021, 11:06
Scusate ma le Ampere ( in particolare la 3080 ) supportano correttamente l'HDMI 2.1 ?

O ci sono problemi ?
A collegarla ad un TV avete avuto problemi di funzionamento ?

Qualche inciampo all'inizio. ma nulla di che. Funziona tutto bene ora.

arkantos91
07-10-2021, 17:39
Ciao, qualcuno qui che ha acquistato direttamente da evga, si è visto partire il pacco direttamente dai loro magazzini di Taiwan? È arrivata una mail dalla DHL Malpensa in cui mi chiedono codice fiscale e il contenuto del pacco. Voi avete mandato altro?

TigerTank
07-10-2021, 18:43
Ciao, qualcuno qui che ha acquistato direttamente da evga, si è visto partire il pacco direttamente dai loro magazzini di Taiwan? È arrivata una mail dalla DHL Malpensa in cui mi chiedono codice fiscale e il contenuto del pacco. Voi avete mandato altro?

Ciao, la mia è arrivata da Taiwan. Ad alcuni non hanno chiesto nulla se non la conferma iniziale di un paio di dati(nome e codice fiscale) direttamente sul sito DHL.
A me arrivò una mail da DHL di Bergamo con la richiesta di una dichiarazione in bianco confermando che ero un privato e che ero il destinatario del pacco. Mail con tanto di documenti di spedizione allegati.
Risposi allegando un PDF in cui confermavo la cosa e sottolineando anche che la spedizione e gli oneri erano a carico del mittente in quanto spedita in DDP(Delivery Duty Paid) come peraltro indicato dai documenti allegati da loro stessi :mbe:
Poi più nulla ma la scheda mi è arrivata correttamente e non ho dovuto pagare nulla di più(come gli altri).

AL massimo rispondi e sottolinea anche tu che hai già pagato al mittente il corrispettivo IVA e che la spedizione è in DDP.

Che modello hai preso?

nickname88
07-10-2021, 19:21
Funziona bene, ci mancherebbe.
Devi avere il cavo giusto.

Qualche inciampo all'inizio. ma nulla di che. Funziona tutto bene ora.
Ma per usufruire dell'HDMI 2.1 devo abilitare qualcosa da Control Panel Nvidia ?

Dono89
07-10-2021, 19:33
raga ma tecnicamente parlando, perchè aumentare la frequenza delle GDDR comporta benefici?

Attualmente sulla mia 3060ti sono a 15400 dai 14000 iniziali con banda (ora) di 493GB/s (+700 per intenderci, arrivano a 900, ma non esageriamo)

alzare le frequenze porta come unico beneficio l'avere una banda maggiore, ma se non viene saturata, perchè si hanno benefici nell'alzarla?

aggiungere 700MHz mi ha dato circa il 4% di benefici effettivi in game
Può sembrare poco, ma è il distacco che c'è fra una 3070 e una 3070 ti


ps: Vcore abbassato ancora, 1830 con 0,82 :(
pensare che questa scheda salirebbe divinamente se solo avesse un PL decente da bios o almeno si potesse moddarlo...nemmeno quello

arkantos91
07-10-2021, 20:34
Ciao, la mia è arrivata da Taiwan. Ad alcuni non hanno chiesto nulla se non la conferma iniziale di un paio di dati(nome e codice fiscale) direttamente sul sito DHL.
A me arrivò una mail da DHL di Bergamo con la richiesta di una dichiarazione in bianco confermando che ero un privato e che ero il destinatario del pacco. Mail con tanto di documenti di spedizione allegati.
Risposi allegando un PDF in cui confermavo la cosa e sottolineando anche che la spedizione e gli oneri erano a carico del mittente in quanto spedita in DDP(Delivery Duty Paid) come peraltro indicato dai documenti allegati da loro stessi :mbe:
Poi più nulla ma la scheda mi è arrivata correttamente e non ho dovuto pagare nulla di più(come gli altri).

AL massimo rispondi e sottolinea anche tu che hai già pagato al mittente il corrispettivo IVA e che la spedizione è in DDP.

Che modello hai preso?

Ti ringrazio per le info.

La scheda è una 3080TI FTW3... presa grazie ad un amico iscritto all'Elite Program che mi ha fatto un favore.

Anche nel caso della mail in questione ricevuta c'è scritto tra i documenti che si tratta di "DUTIES & TAXES PAID", quindi spero niente soprese di extra da pagare :D

Di rimando alla mail che hanno indicato (hub Malpensa DHL) abbiamo inserito solo codice fiscale e che l'acquisto è per un privato.

mikael84
07-10-2021, 20:56
raga ma tecnicamente parlando, perchè aumentare la frequenza delle GDDR comporta benefici?

Attualmente sulla mia 3060ti sono a 15400 dai 14000 iniziali con banda (ora) di 493GB/s (+700 per intenderci, arrivano a 900, ma non esageriamo)

alzare le frequenze porta come unico beneficio l'avere una banda maggiore, ma se non viene saturata, perchè si hanno benefici nell'alzarla?

aggiungere 700MHz mi ha dato circa il 4% di benefici effettivi in game
Può sembrare poco, ma è il distacco che c'è fra una 3070 e una 3070 ti


ps: Vcore abbassato ancora, 1830 con 0,82 :(
pensare che questa scheda salirebbe divinamente se solo avesse un PL decente da bios o almeno si potesse moddarlo...nemmeno quello

Non è solo una questione di banda, quella che vedi tu è teorica, non è neppure effettiva.
Aumentare la velocità di ram, può portare benefici agli accessi, velocizzare i comandi e gli indirizzi e di conseguenza il WCK.
I 14/ 15gb/s che vedi tu diventano:
Comandi: 1750 (14) 1875 (15)
Dati:1750 (14) 1875 (15)
WCK 7000 8n / 16n 14000 (14)
WCK 7500 8n/ 16n 15000 (14)

La banda media utilizzata in game è di circa 150 teorica, ma basta che io alzo le latenze e tu perdi prestazioni.;)

Essendo cmq tarate bene, le ram non danno mai problemi, in quanto nvidia utilizza anche tecniche di compressione avanzate, per questo si possono lasciare anche a stock.
Se poi testando viene fuori un 4%, si possono anche tenere occate.

Dono89
07-10-2021, 21:33
Non è solo una questione di banda, quella che vedi tu è teorica, non è neppure effettiva.
Aumentare la velocità di ram, può portare benefici agli accessi, velocizzare i comandi e gli indirizzi e di conseguenza il WCK.
I 14/ 15gb/s che vedi tu diventano:
Comandi: 1750 (14) 1875 (15)
Dati:1750 (14) 1875 (15)
WCK 7000 8n / 16n 14000 (14)
WCK 7500 8n/ 16n 15000 (14)

La banda media utilizzata in game è di circa 150 teorica, ma basta che io alzo le latenze e tu perdi prestazioni.;)

Essendo cmq tarate bene, le ram non danno mai problemi, in quanto nvidia utilizza anche tecniche di compressione avanzate, per questo si possono lasciare anche a stock.
Se poi testando viene fuori un 4%, si possono anche tenere occate.


Tutto chiaro, ma le latenze c'è modo di verificare se si alzano alzando la frequenza?

Ho sempre verificato se ci sono aumenti di prestazioni o passi indietro con l'aumentare della frequenza, ma un metodo più preciso sarebbe meglio

amon.akira
07-10-2021, 23:56
Tutto chiaro, ma le latenze c'è modo di verificare se si alzano alzando la frequenza?

Ho sempre verificato se ci sono aumenti di prestazioni o passi indietro con l'aumentare della frequenza, ma un metodo più preciso sarebbe meglio

piu preciso della verifica delle prestazioni penso non ci sia, sarà sempre lo step finale :)

mikael84
08-10-2021, 00:09
Tutto chiaro, ma le latenze c'è modo di verificare se si alzano alzando la frequenza?

Ho sempre verificato se ci sono aumenti di prestazioni o passi indietro con l'aumentare della frequenza, ma un metodo più preciso sarebbe meglio

Le latenze non si alzano. Uno dei freni è la tensione. Ora cmq lo standard gddr6 è stato abbandonato, in favore delle PAM4 Gddr6X.
In ogni caso le gddr6 salgono molto bene.
Come vedi tu stesso, la 3070ti con ram spinte, non fa certo miracoli.:)

Dono89
08-10-2021, 06:37
Le latenze non si alzano. Uno dei freni è la tensione. Ora cmq lo standard gddr6 è stato abbandonato, in favore delle PAM4 Gddr6X.
In ogni caso le gddr6 salgono molto bene.
Come vedi tu stesso, la 3070ti con ram spinte, non fa certo miracoli.:)


Quindi tecnicamente più ce n'è, meglio è, al netto di cali prestazionali dovuti ad errori dalla frequenza che non regge.

In passato (980?) si vociferava che dopo aver superato gli 8000 aumentassero i timing e quindi le prestazioni decadessero

piond
08-10-2021, 09:21
Ciao
Non sapevo se postare qui o in sezione CPU
Nei video di benchmark dei videogiochi, su youtube, spesso chi li fa usa un software che ti mostra a schermo gli fps, la temperatura della cpu, della gpu, il carico di cpu e gpu in percentuale... il tutto con colori arancioni e bianchi ben visibili.
Volevo sapere che software usano per avere quei dati ben visibili?
Potrebbe essere MSI Afterburner?
E' da molto tempo che non lo uso quindi sono rimasto indietro.

Grazie :D

PS: come per esempio in QUESTO (https://youtu.be/cszcPZXK_N4)video

mattxx88
08-10-2021, 09:32
Roman ha aperto la 3070 Noctua :fagiano:

https://www.youtube.com/watch?v=Hpk4UM1VQOY

29Leonardo
08-10-2021, 09:41
PS: come per esempio in QUESTO (https://youtu.be/cszcPZXK_N4)video


quello del video è msi ab, per i font vanno tutti customizzati a parte editando dei file o smanacciando nell'apposita sezione di configurazione.

Esistono però anche altri software a pagamento (tipo fps monitor 10$ per la licenza a vita) che sono piu user-friendly imho nella personalizzazione

Blee
08-10-2021, 09:50
Ciao
Non sapevo se postare qui o in sezione CPU
Nei video di benchmark dei videogiochi, su youtube, spesso chi li fa usa un software che ti mostra a schermo gli fps, la temperatura della cpu, della gpu, il carico di cpu e gpu in percentuale... il tutto con colori arancioni e bianchi ben visibili.
Volevo sapere che software usano per avere quei dati ben visibili?
Potrebbe essere MSI Afterburner?
E' da molto tempo che non lo uso quindi sono rimasto indietro.

Grazie :D

PS: come per esempio in QUESTO (https://youtu.be/cszcPZXK_N4)video

Si è AB. Vai nelle impostazioni e flegga le misurazioni che preferisci avere su display.

piond
08-10-2021, 10:20
quello del video è msi ab, per i font vanno tutti customizzati a parte editando dei file o smanacciando nell'apposita sezione di configurazione.

Esistono però anche altri software a pagamento (tipo fps monitor 10$ per la licenza a vita) che sono piu user-friendly imho nella personalizzazione

Si è AB. Vai nelle impostazioni e flegga le misurazioni che preferisci avere su display.
Grazie ad entrambi ;)

FroZen
08-10-2021, 10:34
Le latenze non si alzano.

https://c.tenor.com/qk6SO40YZzgAAAAM/suspicious-look.gif

albero77
08-10-2021, 11:56
Sul fronte hdr qualcuno ha notato miglioramenti? Non so se sono io cecato ma a me sembra la stessa robaccia di prima.

Inviato dal mio RMX2202 utilizzando Tapatalk

mikael84
08-10-2021, 12:41
Quindi tecnicamente più ce n'è, meglio è, al netto di cali prestazionali dovuti ad errori dalla frequenza che non regge.

In passato (980?) si vociferava che dopo aver superato gli 8000 aumentassero i timing e quindi le prestazioni decadessero

Diciamo che dopo un tot di clock, servirebbe anche un tot. di tensione in più. In certe multifase come le lightning, KP, classified, potevi farlo.

nickname88
08-10-2021, 12:47
cosi già torna, anche se lascia immaginare l uso del raytracing in fc6 a che livello sia :asd:

Lo si vede anche dalle immagini d'esempio che ha fatto TPU. Praticamente assente.Il RT di FC6 è ovviamente infimo in quanto è un gioco sponsorizzato AMD che il RT appunto non lo digeriscono.
Quindi o lo applicano solo sulle ombre oppure nel modo illustrato, perchè più di quello non gestiscono.



Ma per usufruire dell'HDMI 2.1 devo abilitare qualcosa da Control Panel Nvidia ?:read: :help:

alexxx19
08-10-2021, 13:26
:read: :help:

no, io quando avevo il pc sulla tv ho collegato e basta con cavo hdmi adatto e potevo andare a 120

nickname88
08-10-2021, 13:30
no, io quando avevo il pc sulla tv ho collegato e basta con cavo hdmi adatto e potevo andare a 120si ok ma 120Hz con HDR e 10bit di colore ?

alexxx19
08-10-2021, 13:40
si esatto, su tv samsung q80t

Cutter90
08-10-2021, 14:22
Sul fronte hdr qualcuno ha notato miglioramenti? Non so se sono io cecato ma a me sembra la stessa robaccia di prima.

Inviato dal mio RMX2202 utilizzando Tapatalk

Io inzio a stancarmi infatti. Non solo ms fa orecchie da mercande e non supporta Hgig, ma addirittura il 90% dei giochi che escono su pc o hanno l'hdr rotto (cp2077, ac valhalla), o non lo supportano, oppure hanno un hdr "buttato" lì. Nel 2021/quasi 2022 è una cosa oscena trattare così l'utenza pc. sia da parte delle sh, sia da parte di ms

Graphite600T
08-10-2021, 14:45
Io inzio a stancarmi infatti. Non solo ms fa orecchie da mercande e non supporta Hgig, ma addirittura il 90% dei giochi che escono su pc o hanno l'hdr rotto (cp2077, ac valhalla), o non lo supportano, oppure hanno un hdr "buttato" lì. Nel 2021/quasi 2022 è una cosa oscena trattare così l'utenza pc. sia da parte delle sh, sia da parte di ms

Io ho dato via il monitor con HDR perchè mi sminchiava tutto e i giochi avevano un hdr pessimo. Tra 2 anni se ne parla per ora fa ca*are

Cutter90
08-10-2021, 15:11
Io ho dato via il monitor con HDR perchè mi sminchiava tutto e i giochi avevano un hdr pessimo. Tra 2 anni se ne parla per ora fa ca*are

I monitor hdr sono terribili, a meno di spendere almeno i 1000 euro. Quelli sotto hanno una resa hdr pessima, anche dove MS e l'sh hanno fatto un buon lavoro.:)

amon.akira
08-10-2021, 15:40
Io inzio a stancarmi infatti. Non solo ms fa orecchie da mercande e non supporta Hgig, ma addirittura il 90% dei giochi che escono su pc o hanno l'hdr rotto (cp2077, ac valhalla), o non lo supportano, oppure hanno un hdr "buttato" lì. Nel 2021/quasi 2022 è una cosa oscena trattare così l'utenza pc. sia da parte delle sh, sia da parte di ms

cyberpunk ha un signor hdr dal dayone, valhalla non ce lho ancora ma i suoi prequel, origins e odyssey sono ok, idem immortal fenyx che sto giocando sempre ubisoft, quindi sicuramente lo sarà anche lui

il problema lo ripeto ogni volta sono i dispositivi, hgig poi non ne parliamo meglio off, tonemappa bruciando tutto per sopperire a mancanze tecniche giustamente XD, per la massa cmq va bene immagino.

finora a memoria l unico ad averlo rotto è the medium e forse qualche altro ue4 con supporto fake di cui nn ricordo il nome.

l importante è che non passi il messaggio che l hdr su pc è rotto, finora sono quasi tutti ok
resident evil2-3-7-village,metro exoduss,sotr,ori2,rdr2,ac origin.odysess,immortal fenyx (stupendo in hdr),farcry5,cyberpunk,jedi fallen,doom eternal,gears5,horizon zero dawn,daysgone,andromeda,deathstranding,destiny2,marvel avengers e sicuramente me ne sfuggono altri :P

ninja750
08-10-2021, 15:48
cyberpunk ha un signor hdr dal dayone, valhalla non ce lho ancora ma i suoi prequel, origins e odyssey sono ok, idem immortal fenyx che sto giocando sempre ubisoft, quindi sicuramente lo sarà anche lui

si può attivare hdr nel gioco lasciandolo disattivato in windows?

Cutter90
08-10-2021, 15:54
cyberpunk ha un signor hdr dal dayone, valhalla non ce lho ancora ma i suoi prequel, origins e odyssey sono ok, idem immortal fenyx che sto giocando sempre ubisoft, quindi sicuramente lo sarà anche lui

il problema lo ripeto ogni volta sono i dispositivi, hgig poi non ne parliamo meglio off, tonemappa bruciando tutto per sopperire a mancanze tecniche giustamente XD, per la massa cmq va bene immagino.

finora a memoria l unico ad averlo rotto è the medium e forse qualche altro ue4 con supporto fake di cui nn ricordo il nome.

l importante è che non passi il messaggio che l hdr su pc è rotto, finora sono quasi tutti ok
resident evil2-3-7-village,metro exoduss,sotr,ori2,rdr2,ac origin.odysess,immortal fenyx (stupendo in hdr),farcry5,cyberpunk,jedi fallen,doom eternal,gears5,horizon zero dawn,daysgone,andromeda,deathstranding,destiny2,marvel avengers e sicuramente me ne sfuggono altri :P

Perdonami, ma hai detto tante di quelle cose errate che non so da dove iniziare. L'hdr di cp è rotto dal d1, dato che in hdr slava completamente i colori e il nero (perchè ha un gestione del gamma sbagliata proprio). Valhalla ha lo stesso problema.
Hgig meglio off perchè ms non lo supporta (anche perchè è come se fosse su off se lo attivi). Il tone mapping aiuta nei giochi dove non si può settare in maniera sensata l'hdr in game, come valhalla ad esempio. Vai piano con le affermazioni, perchè a livello tecnico sull'hdr devi un attimo informarti meglio.
Anche metro exodus con l'hdr e il dlss attivo ha evidenti problemi.
Gli altri da te citati vanno più o meno bene, ma ce ne sono tantissimi altri che invece non vanno o non hanno proprio l'hdr. In generale i giopchi ms e sony sono i migliori e meglio sviluppati lato hdr.

Il concetto è che su console non ci sono quasi mai problemi con l'hdr. Su pc, molto spesso si. Odisseyt ad esempio al d1 era ingiocabile in hdr. POI l'hanno sistemato.

Cutter90
08-10-2021, 15:56
si può attivare hdr nel gioco lasciandolo disattivato in windows?

Da quello che ricordo mi pare di no

CrazyDog
08-10-2021, 16:02
ma l'auto HDR di 11 come funziona?:confused:

alexxx19
08-10-2021, 16:32
si può attivare hdr nel gioco lasciandolo disattivato in windows?

di solito no, ma alcuni giochi tipo valhalla me lo lascia attivare comunque

CrazyDog
08-10-2021, 16:38
però sarebbe molto meglio se si potesse lasciare disattivo in windows, dove sul desktop a me ad esempio non piace affatto, ed attivabile solo nei giochi
non esiste nemmeno un qualche trucchetto per farlo?

mattxx88
08-10-2021, 16:44
però sarebbe molto meglio se si potesse lasciare disattivo in windows, dove sul desktop a me ad esempio non piace affatto, ed attivabile solo nei giochi
non esiste nemmeno un qualche trucchetto per farlo?

alcuni giochi sta cosa la supportano, due da me provati che sicuramente switchano in HDR automaticamente all'avvio sono the division 2 e AC Odissey
comodità unica

CrazyDog
08-10-2021, 16:47
nella maggior parte dei giochi che ho non si può fare, non mi fa attivare l'hdr se non lo abilito in windows, solo che così facendo mi applica l'hdr anche nel desktop e non mi piace affatto

amon.akira
08-10-2021, 16:58
Perdonami, ma hai detto tante di quelle cose errate che non so da dove iniziare. L'hdr di cp è rotto dal d1, dato che in hdr slava completamente i colori e il nero (perchè ha un gestione del gamma sbagliata proprio). Valhalla ha lo stesso problema.
Hgig meglio off perchè ms non lo supporta (anche perchè è come se fosse su off se lo attivi). Il tone mapping aiuta nei giochi dove non si può settare in maniera sensata l'hdr in game, come valhalla ad esempio. Vai piano con le affermazioni, perchè a livello tecnico sull'hdr devi un attimo informarti meglio.
Anche metro exodus con l'hdr e il dlss attivo ha evidenti problemi.
Gli altri da te citati vanno più o meno bene, ma ce ne sono tantissimi altri che invece non vanno o non hanno proprio l'hdr. In generale i giopchi ms e sony sono i migliori e meglio sviluppati lato hdr.

Il concetto è che su console non ci sono quasi mai problemi con l'hdr. Su pc, molto spesso si. Odisseyt ad esempio al d1 era ingiocabile in hdr. POI l'hanno sistemato.

ahah slavato, vabbe poi in futuro quando avrai un vero display hdr rimetti cyberpunk e rifatti gli occhi XD se lo vedo in sdr mi viene da piangere con tutto rispetto per chi lo gioca in sdr, ma una volta provato uno step superiore nn si torna indietro...idem doom eternal è un altro gioco in hdr ^^'
cmq state proprio inguaiati con le tv ^^' (sorvolo sui tecnicismi, nn è il luogo).

nickname88
08-10-2021, 17:12
ahah slavato, vabbe poi in futuro quando avrai un vero display hdr rimetti cyberpunk e rifatti gli occhi XD se lo vedo in sdr mi viene da piangere con tutto rispetto per chi lo gioca in sdr, ma una volta provato uno step superiore nn si torna indietro...idem doom eternal è un altro gioco in hdr ^^'
cmq state proprio inguaiati con le tv ^^' (sorvolo sui tecnicismi, nn è il luogo).Effettiamente anche io se attivo l'HDR in buona parte dei giochi diventa slavato.

A cosa può essere dovuto ?
Possibile sia solo il monitor ? O centra anche la RTX o la connessione video usata ? ( io uso DP 1.4 )
Bisogna attivare qualcosa da Control Panel Nvidia ?



Capisco che non i monitors edge led non siano in grado di riprodurre minimamente la parte relativa all'illuminazione dinamica ma perchè proprio slavato ?

L'HDR in teoria dovrebbe applicare in primis il tone mapping ( da usufruire assieme all'illuminazione ) con variazione di gamma in negativo, ossia l'esatto opposto del risultato finale.

Sul tubo io vedo video di monitor HDR400 che se attivi l'HDR il quadro cromatico migliora ( poco o tanto è indifferente ) e non slava, ma non ho mai capito come facciano.

Non è un problema di Windows ?
Cioè se attacco il PC all'OLED di colpo senza settare nient'altro mi dici che non sarà più slavato ? :read: :help:

.idem doom eternal Doom è un caso che per me è stato singolare.
Doom ti permette di regolare infatti gamma e saturazione dell'HDR rispetto invece agli altri titoli.

Doom infatti è stato il primo gioco in cui con HDR attivo è migliorato molto il gioco, ma perchè io a mano ho regolato il tutto, all'inizio era slavatuccio anche lui.

Cioè è come se non venisse di default applicato il tone mapping corretto.
Possibile sia colpa solo del monitor ?

amon.akira
08-10-2021, 17:32
cmq per precisare l hdr di cyberpunk al dayone era rotto su console (https://www.youtube.com/watch?v=e1BA2O-NTcE) non su pc ;)

x nickname88, ma slavato intedi desaturato giusto? purtroppo se nn hai setting a disposizione puoi dare un 55 a brillantezza su nvidia o sul display se lo permette. (lo facevo con il mio ex momentum43 al volo con clickmonitor)

nickname88
08-10-2021, 18:10
cmq per precisare l hdr di cyberpunk al dayone era rotto su console (https://www.youtube.com/watch?v=e1BA2O-NTcE) non su pc ;)

x nickname88, ma slavato intedi desaturato giusto? purtroppo se nn hai setting a disposizione puoi dare un 55 a brillantezza su nvidia o sul display se lo permette. (lo facevo con il mio ex momentum43 al volo con clickmonitor)principalmente un valore di gamma più basso, a occhio ben al di sotto il 2.2 tradizionale.
Si anche desaturato ma penso sia conseguenza del gamma.

Lo stesso identico effetto che hai su desktop succede anche nei giochi !
E' questo il problema, perchè il desktop è in SDR ma i giochi una volta attivato l'HDR no, eppure succede lo stesso effetto.

Si ok posso provare a correggere da pannello di controllo Nvidia però così facendo mando letteralmente a quel paese la fedeltà cromatica.
Non penso poi che regolare il gamma e saturazione via software sia uguale a farlo dall'OSD del monitor.

Marci
08-10-2021, 18:12
I monitor hdr sono terribili, a meno di spendere almeno i 1000 euro. Quelli sotto hanno una resa hdr pessima, anche dove MS e l'sh hanno fatto un buon lavoro.:)Si ma raga, l'HDR si disattiva eh, diventano dei monitor normali.

Wolf91
08-10-2021, 18:36
Il problema sono i finti HDR che hanno alcuni monitor,non l'HDR in se

Sotto i 1000nit è difficile chiamarlo HDR

TigerTank
08-10-2021, 18:46
Io ho sempre odiato l'HDR, in fotografia prima e in video ora :D
L'ho provato sulla mia tv usata come monitor ma sinceramente preferisco la modalità "normale" senza luci e contrasti esasperati, ma ben equilibrati e con colori ben resi.

Wolf91
08-10-2021, 18:47
Io ho sempre odiato l'HDR, in fotografia prima e in video ora :D
L'ho provato sulla mia tv usata come monitor ma sinceramente preferisco la modalità "normale" senza luci e contrasti esasperati, ma ben equilibrati e con colori ben resi.

Dipende molto anche da come viene calibrato,e sono cose molto difficili da fare.

Poi dipende anche dalla scelta artistica

fraussantin
08-10-2021, 19:42
Io ho sempre odiato l'HDR, in fotografia prima e in video ora :D
L'ho provato sulla mia tv usata come monitor ma sinceramente preferisco la modalità "normale" senza luci e contrasti esasperati, ma ben equilibrati e con colori ben resi.Il problema è che non viene usato per rendere realistica un immagine ,ma come fanno anche con il 3d video o il 7.1 audio ne abusano per farci effetti esagerati e falsi.
Almeno nel cinema\tv . Nei giochi non l'ho mai provato

amon.akira
08-10-2021, 21:26
Io ho sempre odiato l'HDR, in fotografia prima e in video ora :D
L'ho provato sulla mia tv usata come monitor ma sinceramente preferisco la modalità "normale" senza luci e contrasti esasperati, ma ben equilibrati e con colori ben resi.


non è una questione di luci e contrasti esasperati, ultimo esempio e poi chiudo ot

scattato con il mio cell di merda,j3 2017, ovviamente in real è molto diverso l impatto ma già cosi capisci che vedi dettagli che in sdr nn vedi

resident evil3 stanza iniziale scatola proiettili sotto la lampada
sdr (https://i.imgur.com/KIMsiZo.jpg)
hdr (https://i.imgur.com/vwVoyqR.jpg)

ovviamente in real si vede di piu nelle parti scure hdr...però vedi il sopra della scatola.

TigerTank
08-10-2021, 22:31
Diciamo che alla fine parliamo di un effetto che sta a metà strada tra il gusto personale e la buona calibrazione. Come del resto altri effetti di post produzione o anche la grafica in generale :)
E chiaro che specialmente al di sotto dei 1000 nits, il marketing ci abbia mangiato alla grande. IMHO.

GERICO76
08-10-2021, 23:50
Salve, avrei bisogno di alcuni consigli. Ho appena preso una Gigabyte GeForce RTX 3070 8GB AORUS Master, è normale avere temperature di 80/85 gradi quando faccio rendering e la gpu è al 100% ? (le ventole sono impostate su auto e a quelle temperature girano intorno al 70/75%)

Marci
09-10-2021, 07:11
Dipende molto anche da come viene calibrato,e sono cose molto difficili da fare.



Poi dipende anche dalla scelta artisticaCome TV ho un LG Oled e sinceramente con HDR e, ancor di più, con Dolby Vision i film e le serie TV sono da sbavo, quando ho provato ad attivare l'HDR sul monitor del lavoro vedevo tutto coi colori sballati invece, orribile.

Graphite600T
09-10-2021, 08:36
Io ho sempre odiato l'HDR, in fotografia prima e in video ora :D
L'ho provato sulla mia tv usata come monitor ma sinceramente preferisco la modalità "normale" senza luci e contrasti esasperati, ma ben equilibrati e con colori ben resi.

infatti l'hdr non è questo brutto effetto che noti tu. L'hdr vero non ti spara la luminosità a livelli del SOLE e non ti rende tutto super saturato. Quello è il famoso HDR Rotto di cui stiamo parlando.

Thunder-74
09-10-2021, 09:55
Salve, avrei bisogno di alcuni consigli. Ho appena preso una Gigabyte GeForce RTX 3070 8GB AORUS Master, è normale avere temperature di 80/85 gradi quando faccio rendering e la gpu è al 100% ? (le ventole sono impostate su auto e a quelle temperature girano intorno al 70/75%)

secondo me è troppo.. è una scheda da 70/75 gradi max.
non so quale programma di rendering usi, ma per quel che ho visto, quando si renderizza la scheda arriva a boostare fino alla freq. definita di boost, senza spingere oltre sfruttando il boost 5.0 di nvidia per intenderci. Quando uso la mia per questi lavori, il consumo non è mai eccessivo, ma questo può dipendere anche dal software che usi.
In game come sei messo? dovresti provare soprattutto titoli in RT, tipo metro o control, dove la GPU viene messa sotto torchio.

Ad esempio in questo VIDEO (https://www.youtube.com/watch?v=7EC8Jy3J09s) usa furmark e a def sta a 71 gradi, occando e spingendo le ventole al max , 67 gradi.

piond
09-10-2021, 10:03
Beh a me la mia asus 3070 dual fan arriva facilmente agli 83,84 gradi, poi si stabilizza

GERICO76
09-10-2021, 10:06
secondo me è troppo.. è una scheda da 70/75 gradi max.
non so quale programma di rendering usi, ma per quel che ho visto, quando si renderizza la scheda arriva a boostare fino alla freq. definita di boost, senza spingere oltre sfruttando il boost 5.0 di nvidia per intenderci. Quando uso la mia per questi lavori, il consumo non è mai eccessivo, ma questo può dipendere anche dal software che usi.
In game come sei messo? dovresti provare soprattutto titoli in RT, tipo metro o control, dove la GPU viene messa sotto torchio.

Ad esempio in questo VIDEO (https://www.youtube.com/watch?v=7EC8Jy3J09s) usa furmark e a def sta a 71 gradi, occando e spingendo le ventole al max , 67 gradi.

Uso Blender per il rendering. Le frequenze della GPu sono quelle già overcloccate di fabrica, quando la scheda andava al 100% le frequenze erano intorno a 1970 Mhz le ventole a 1750 rpm. ancora non ho provato giochi, per monitorare la scheda sto usando il software gybaite Aorus Engine

fraussantin
09-10-2021, 10:15
Uso Blender per il rendering. Le frequenze della GPu sono quelle già overcloccate di fabrica, quando la scheda andava al 100% le frequenze erano intorno a 1970 Mhz le ventole a 1750 rpm. ancora non ho provato giochi, per monitorare la scheda sto usando il software gybaite Aorus EngineProva undervolt .

Se ti accontenti di 900mV a 1900 o Al limite 950 a 1950. Dovrebbero essere stabili sulla maggior parte delle schede. Altrimenti puoi provare a calare i voltaggi ancora


Edit , scusa credevo fosse una 80 viste le temperature.
Non so se i voltaggi vanno bene anche per la 70 . Cmq si ti conviene fare undervolt perché è veramente troppo. Sempre che non ci siano problemi di pasta termica o airflow perché sono veramente troppe per una 70 quelle temp.

GERICO76
09-10-2021, 10:18
Prova undervolt .

Se ti accontenti di 900mV a 1900 o Al limite 950 a 1950. Dovrebbero essere stabili sulla maggior parte delle schede. Altrimenti puoi provare a calare i voltaggi ancora

Per fare l'undervolt devo usare afterburner o c'è qualche software specifico per le gygabite?

fraussantin
09-10-2021, 10:33
Per fare l'undervolt devo usare afterburner o c'è qualche software specifico per le gygabite?Vai con AB . È il migliore.

GERICO76
09-10-2021, 11:12
Ho fatto il test di rendering con il monitoraggio di afterburner acceso. Ora sembra tutto stabilizzato. GPU utilizzata al 100%, Frequenza core 1970 MHz, ram 6800 MHz, Temperatura stabile a 68 gradi. Mi sa che mi dava dati sballati il software di Gygabite. Grazie per i consigli.

gionnip
09-10-2021, 11:38
Una curiosità,il sito che calcola il bottleneck è affidabile?qualcuno ha fatto undervolt della 3080fe a 1850 850mv e che temperature avete?

fraussantin
09-10-2021, 12:08
Ho fatto il test di rendering con il monitoraggio di afterburner acceso. Ora sembra tutto stabilizzato. GPU utilizzata al 100%, Frequenza core 1970 MHz, ram 6800 MHz, Temperatura stabile a 68 gradi. Mi sa che mi dava dati sballati il software di Gygabite. Grazie per i consigli.Meglio cosi

TigerTank
09-10-2021, 13:10
infatti l'hdr non è questo brutto effetto che noti tu. L'hdr vero non ti spara la luminosità a livelli del SOLE e non ti rende tutto super saturato. Quello è il famoso HDR Rotto di cui stiamo parlando.

Sì può essere. Facile che dipenda anche dai giochi stessi.
Io comunque per quel che ho provato la tv come monitor ho preferito non usarlo e lasciare la naturalezza dei colori e contrasti del QLED. Ma per lo streaming e i film lo lascio attivo.
In poche parole dipende anche dalla bontà della fonte sucui si applica.

Beh a me la mia asus 3070 dual fan arriva facilmente agli 83,84 gradi, poi si stabilizza

Sì ma la Aorum Master (https://www.techpowerup.com/gpu-specs/gigabyte-aorus-rtx-3070-master.b8226) a massa radiante è un bel pò più voluminosa della tua Dual (https://www.techpowerup.com/gpu-specs/asus-dual-rtx-3070.b8032) :)
E mi pare abbia 300W di power limit contro i 240 della tua.



EDIT: gli sviluppi circa New World (https://www.guru3d.com/news-story/amazon-graphics-card-manufacturers-liable-for-graphics-card-failures-in-new-world.html).

piond
09-10-2021, 14:15
Sì può essere. Facile che dipenda anche dai giochi stessi.
Io comunque per quel che ho provato la tv come monitor ho preferito non usarlo e lasciare la naturalezza dei colori e contrasti del QLED. Ma per lo streaming e i film lo lascio attivo.
In poche parole dipende anche dalla bontà della fonte sucui si applica.



Sì ma la Aorum Master (https://www.techpowerup.com/gpu-specs/gigabyte-aorus-rtx-3070-master.b8226) a massa radiante è un bel pò più voluminosa della tua Dual (https://www.techpowerup.com/gpu-specs/asus-dual-rtx-3070.b8032) :)
E mi pare abbia 300W di power limit contro i 240 della tua.



EDIT: gli sviluppi circa New World (https://www.guru3d.com/news-story/amazon-graphics-card-manufacturers-liable-for-graphics-card-failures-in-new-world.html).
Ah ok grazie, mi sembrava strano :asd:

lostsf
09-10-2021, 14:47
ciao a tutti voi la Nvidia Resizable BAR ,la avete abilitata o non serve grazie x la risposta:)

illidan2000
09-10-2021, 19:45
ciao a tutti voi la Nvidia Resizable BAR ,la avete abilitata o non serve grazie x la risposta:)

non ancora. ho letto di guadagni irrisori

amon.akira
09-10-2021, 20:01
ciao a tutti voi la Nvidia Resizable BAR ,la avete abilitata o non serve grazie x la risposta:)

si vai tranquillo, inoltre va in funzione solo nei giochi segnati da nvidia nel driver.

TigerTank
09-10-2021, 20:33
ciao a tutti voi la Nvidia Resizable BAR ,la avete abilitata o non serve grazie x la risposta:)

DIpende dai giochi (https://www.techspot.com/review/2234-nvidia-resizable-bar/). Comunque se ne hai la possibilità attivala e vedi come va :)

Thunder-74
10-10-2021, 08:40
si vai tranquillo, inoltre va in funzione solo nei giochi segnati da nvidia nel driver.


Esatto, alla fine di danni alle prestazioni non se ne fanno. Volendo di può attivare sempre o selettivamente agendo con inspector , ma andrebbe poi valutato titolo per titolo . Se trovo qualche info su eventuali titoli che possono beneficiarne, ma non ancora considerati da nVidia nei driver, li segnalo .

Comunque gli attuali 20 titoli contemplati dagli ultimi driver nvidia sono:

https://i.imgur.com/tHcJPp1.png



Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
10-10-2021, 11:18
der8auer smanetta sulla 3070 Noctua :D

https://www.youtube.com/watch?v=44PEl57EJo4

mikael84
10-10-2021, 11:43
der8auer smanetta sulla 3070 Noctua :D

https://www.youtube.com/watch?v=44PEl57EJo4

E' un folle questo ragazzo, lo seguo da tempo, si mette in tasca il cappellone.:D

Cmq, ho visto che hanno messo i sensori anche sulle gddr6 lisce, avevo una versione vecchia e non mi apparivano, ora si.:)

lostsf
10-10-2021, 12:11
Esatto, alla fine di danni alle prestazioni non se ne fanno. Volendo di può attivare sempre o selettivamente agendo con inspector , ma andrebbe poi valutato titolo per titolo . Se trovo qualche info su eventuali titoli che possono beneficiarne, ma non ancora considerati da nVidia nei driver, li segnalo .

Comunque gli attuali 20 titoli contemplati dagli ultimi driver nvidia sono:

https://i.imgur.com/tHcJPp1.png



Inviato dal mio iPhone X utilizzando Tapatalkgrazie x aiuto io ho attivato da bios al massimo si puo sempre disattivare:) :)

TigerTank
10-10-2021, 13:47
E' un folle questo ragazzo, lo seguo da tempo, si mette in tasca il cappellone.:D

Cmq, ho visto che hanno messo i sensori anche sulle gddr6 lisce, avevo una versione vecchia e non mi apparivano, ora si.:)

Vedendo il video ho pensato 2 cose:

-che con le Chromax è più bella :D
-che magari quelli di Noctua vedendo il video, inizieranno a fare anche ventole con i led :sofico:

Sì questo e Steve sono i miei preferiti, il secondo poi quando lancia in giro o maltratta le cose fatte male :D

Thunder-74
10-10-2021, 13:53
Vedendo il video ho pensato 2 cose:

-che con le Chromax è più bella :D
-che magari quelli di Noctua vedendo il video, inizieranno a fare anche ventole con i led :sofico:

Sì questo e Steve sono i miei preferiti, il secondo poi quando lancia in giro o maltratta le cose fatte male :D


Tiger, è più bella rimosso tutto è messo un WB in modo che sia non ci sia traccia di Noctua hahahahah


Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
10-10-2021, 14:05
Tiger, è più bella rimosso tutto è messo un WB in modo che sia non ci sia traccia di Noctua hahahahah


Inviato dal mio iPhone X utilizzando Tapatalk

Ahahahah ti confesso che ho pubblicato il link dei video anche perchè mi aspettavo un tuo post da estimatore :sofico:
Però secondo me se facessero anche dei dissipatori a tema nero con chromax o industrial la vedresti diversamente :fagiano:

mikael84
10-10-2021, 15:23
Vedendo il video ho pensato 2 cose:

-che con le Chromax è più bella :D
-che magari quelli di Noctua vedendo il video, inizieranno a fare anche ventole con i led :sofico:

Sì questo e Steve sono i miei preferiti, il secondo poi quando lancia in giro o maltratta le cose fatte male :D

Ho provato un pò di tutto di noctua, devo dire che sono prodotti ottimi, certo il design può non piacere. O lo ami o lo odi. Non c'è una via di mezzo.:D

Riguardo a Dev, guarda qui:
https://www.youtube.com/watch?v=5AA7GlV-xis&ab_channel=der8auer

Tiger, è più bella rimosso tutto è messo un WB in modo che sia non ci sia traccia di Noctua hahahahah


Inviato dal mio iPhone X utilizzando Tapatalk


Con il WB è sempre tutto molto meglio.:p

Cutter90
10-10-2021, 16:06
ahah slavato, vabbe poi in futuro quando avrai un vero display hdr rimetti cyberpunk e rifatti gli occhi XD se lo vedo in sdr mi viene da piangere con tutto rispetto per chi lo gioca in sdr, ma una volta provato uno step superiore nn si torna indietro...idem doom eternal è un altro gioco in hdr ^^'
cmq state proprio inguaiati con le tv ^^' (sorvolo sui tecnicismi, nn è il luogo).

Ho un pannello oled c9 lg che ha un dei migliori hdr in circolazione. Seguo il mondo tv da 8 anni. Ho avuto l'oled b6. Sono stato uno dei prima ad usare l'hdr quando ms l'ha reso disponibile su pc. Insomma, hai beccato proprio la persona sbagliata per dire "quando avrai un vero display hdr".
E' chiaro che non sai cosa va guardato in un contenuto hdr per definirlo "buono". Io sono disposto a spiegarti con cosa co9nsiste l'hdr e il perchè in cp2077 sia rotto. Ma se non sei disponibile ad imparare, siamo a posto. L'importante è che la gente che non sa queste cose non ti dia retta. Perchè si potrebbe diffondere disinformazione. E su un sito tecnico quale è questo, lo trovo grave.

Se volete delle info su cosa sia l'hdr, perchè sia rotto o falso in molti giochi su pc, perchè l'hdr sul 90% dei monitor PEGGIORA la resa invece di migliorarla e perchè nonostante tutto sia così importante e decisivo nei videogiochi ne discuto volentieri

PS: aspetta, ma tu hai un monitor che costa 3500 euro. Serio?

TigerTank
10-10-2021, 18:53
Ho provato un pò di tutto di noctua, devo dire che sono prodotti ottimi, certo il design può non piacere. O lo ami o lo odi. Non c'è una via di mezzo.:D

Riguardo a Dev, guarda qui:
https://www.youtube.com/watch?v=5AA7GlV-xis&ab_channel=der8auer


Quello è vero, sulle prestazioni nulla da dire :)

Sì lo avevo visto. Cose che non farei mai, soprattutto su una scheda che mi devo pagare. :D
E' tosto quel ragazzo(fa pure i video in doppia lingua inglese+tedesco), al pari di come presenta sempre le cose in modo serio...al contrario di altri tipo Linus che invece è più enfatico.

Kostanz77
10-10-2021, 19:31
A distanza di qualche giorno riscontrate qualcosa di strano nei giochi con W11?
Le Ampere girano sempre bene?


Inviato dal mio iPhone 13 PRO utilizzando Tapatalk Pro

Thunder-74
10-10-2021, 22:09
A distanza di qualche giorno riscontrate qualcosa di strano nei giochi con W11?
Le Ampere girano sempre bene?


Inviato dal mio iPhone 13 PRO utilizzando Tapatalk Pro


Tutto ok


Inviato dal mio iPhone X utilizzando Tapatalk

Kostanz77
10-10-2021, 23:04
Tutto ok


Inviato dal mio iPhone X utilizzando Tapatalk


Bene, in settimana lo installo sul PC principale....sul mini ITX l ho già installato


Inviato dal mio iPhone 13 PRO utilizzando Tapatalk Pro

kiwivda
11-10-2021, 07:38
A distanza di qualche giorno riscontrate qualcosa di strano nei giochi con W11?
Le Ampere girano sempre bene?


Inviato dal mio iPhone 13 PRO utilizzando Tapatalk Pro

Tutto Ok, mi ha crashato solo explorer 1 volta. Poi ho passato il fine settimana su Star Citizen, quindi gli altri crash del gioco non contano :D .

Apro una parentesi su SC, 4k o 1080P con il sistema in firma non cambia nulla in città 18/48 FPS, nello spazio 48/58, ma il massimo è stato su Orison con il nuovo sistema di nuvole, 0fps, quando sono arrivato in prossimità del pianeta con la visuale esterna alla navicella si è piantato tutto :D :D sembrava di giocare su un 486 DX2 :sofico: dopo circa 40 secondi di panico si è ripreso e andava a tipo 19/20 FPS.

Uso scheda dal 25 al 60% indifferentemente da 1080p o 4k.

TigerTank
11-10-2021, 09:18
Bene, in settimana lo installo sul PC principale....sul mini ITX l ho già installato


Sì dice che con processori Ryzen al momento sia meglio aspettare perchè un paio di bugs sulla cache L3 (con latenze più alte del normale) e sul "preferred core" taglierebbero le prestazioni(e di riflesso anche sulla vga).
AMD stessa consiglia di aspettare e restare su windows 10.

Tanto imho andrebbe assolutamente rivisto anche il nuovo menu Start.

Tutto Ok, mi ha crashato solo explorer 1 volta. Poi ho passato il fine settimana su Star Citizen, quindi gli altri crash del gioco non contano :D .

Apro una parentesi su SC, 4k o 1080P con il sistema in firma non cambia nulla in città 18/48 FPS, nello spazio 48/58, ma il massimo è stato su Orison con il nuovo sistema di nuvole, 0fps, quando sono arrivato in prossimità del pianeta con la visuale esterna alla navicella si è piantato tutto :D :D sembrava di giocare su un 486 DX2 :sofico: dopo circa 40 secondi di panico si è ripreso e andava a tipo 19/20 FPS.

Uso scheda dal 25 al 60% indifferentemente da 1080p o 4k.

Purtroppo è un gioco davvero pessimo ad ottimizzazione e quindi a prestazioni. :doh:


P.S. Uscita nuova versione di DLSS 2.3.1 (https://www.techpowerup.com/download/nvidia-dlss-dll/) su TechPowerUp.

nickname88
11-10-2021, 12:18
Tutto Ok, mi ha crashato solo explorer 1 volta. Poi ho passato il fine settimana su Star Citizen, quindi gli altri crash del gioco non contano :D .

Apro una parentesi su SC, 4k o 1080P con il sistema in firma non cambia nulla in città 18/48 FPS, nello spazio 48/58, ma il massimo è stato su Orison con il nuovo sistema di nuvole, 0fps, quando sono arrivato in prossimità del pianeta con la visuale esterna alla navicella si è piantato tutto :D :D sembrava di giocare su un 486 DX2 :sofico: dopo circa 40 secondi di panico si è ripreso e andava a tipo 19/20 FPS.

Uso scheda dal 25 al 60% indifferentemente da 1080p o 4k.
Star Citizien non è un gioco, è l'oggetto di una truffa legalizzata.

amon.akira
11-10-2021, 12:38
Ho un pannello oled c9 lg che ha un dei migliori hdr in circolazione. Seguo il mondo tv da 8 anni. Ho avuto l'oled b6. Sono stato uno dei prima ad usare l'hdr quando ms l'ha reso disponibile su pc. Insomma, hai beccato proprio la persona sbagliata per dire "quando avrai un vero display hdr".
E' chiaro che non sai cosa va guardato in un contenuto hdr per definirlo "buono". Io sono disposto a spiegarti con cosa co9nsiste l'hdr e il perchè in cp2077 sia rotto. Ma se non sei disponibile ad imparare, siamo a posto. L'importante è che la gente che non sa queste cose non ti dia retta. Perchè si potrebbe diffondere disinformazione. E su un sito tecnico quale è questo, lo trovo grave.

Se volete delle info su cosa sia l'hdr, perchè sia rotto o falso in molti giochi su pc, perchè l'hdr sul 90% dei monitor PEGGIORA la resa invece di migliorarla e perchè nonostante tutto sia così importante e decisivo nei videogiochi ne discuto volentieri

PS: aspetta, ma tu hai un monitor che costa 3500 euro. Serio?

già che dici monitor/tv e non display già possiamo chiudere XD

che tu non ci capisca niente da 8anni anche ci sta XD

e poi con un oled commercial wrgb da 200sustained in discesa nits XD avessi almeno un ep950 già si potrebbe discutere.

:asd:

ninja750
11-10-2021, 13:30
"quando avrai un vero display hdr".

ho aperto un thread a parte giusto stamattina per quanto riguarda HDR :fagiano: ovviamente discutendo di HDR10 cioè quello dei poveri

sarebbe interessante raccogliere le impressioni di tanti utenti

mattxx88
11-10-2021, 13:57
ho aperto un thread a parte giusto stamattina per quanto riguarda HDR :fagiano: ovviamente discutendo di HDR10 cioè quello dei poveri

sarebbe interessante raccogliere le impressioni di tanti utenti

preparo i popcorn, finalmente un 3d dove in un colpo solo posso godermi qualche minuto di spensieratezza in pausa cicca, senza dover switchare fra i 3d :fagiano:

Nvidia mi ha rispedito oggi la 3090 dell' RMA, dopo quasi una settimana je l'hanno fatta finalmente :mc: :stordita: :rolleyes:

ps se vi interessa, puramente FYI, la scheda era stata aperta per metterla in acqua e attorno al die avevo steso il conformal coating della thermal gryzzli che è di colore rosso. la fattura non era a mio nome ma della mia spacciatrice, la scheda in oltre è stata riportata a default dalla shunt (saldature varie) che avevo fatto (ok era fatta da dio e ripultia da dio, distinguibile solo da un occhio ben attento, ma tant'è)
tutto quanto sopra = 0 problemi con l'RMA

edit2: ah un altra cosa, l'"advanced" rma non lo fanno più, ossia paghi un altra scheda che ti anticipano loro tenendo bloccati i soldi e poi te li sbloccano al ricevimento della tua difettata. La centralinista non sa dirmi perchè di questa scelta. Ti tocca mandare la tua e al ricevimento e verifica, ti rimandano la nuova

Cutter90
11-10-2021, 14:33
ho aperto un thread a parte giusto stamattina per quanto riguarda HDR :fagiano: ovviamente discutendo di HDR10 cioè quello dei poveri

sarebbe interessante raccogliere le impressioni di tanti utenti

Dove?

Cutter90
11-10-2021, 14:34
già che dici monitor/tv e non display già possiamo chiudere XD

che tu non ci capisca niente da 8anni anche ci sta XD

e poi con un oled commercial wrgb da 200sustained in discesa nits XD avessi almeno un ep950 già si potrebbe discutere.

:asd:

Pensa che il mio "oled commercial" ha una resa in hdr che anche il tuo monitor da 32 pollici che costa il doppio non ha, dato che non è un oled.

(THE REAL) Neo
11-10-2021, 14:43
Ragazzi,avendo la possibilità di acquistare una Palit 3080ti Gaming Pro,a 900€,la prendereste?
É un modello 2 x 8 pin,un pó limitata dal power limit,basso rispetto ad altre custom.
Considerando che la mia 3080 liscia by Evga,và una cannonata,mi chiedevo se valeva la pena,provare a cambiare.

Alekos Panagulis
11-10-2021, 14:46
Ragazzi,avendo la possibilità di acquistare una Palit 3080ti Gaming Pro,a 900€,la prendereste?
É un modello 2 x 8 pin,un pó limitata dal power limit,basso rispetto ad altre custom.
Considerando che la mia 3080 liscia by Evga,và una cannonata,mi chiedevo se valeva la pena,provare a cambiare.

Se non avessi una gpu la prenderei al volo, ma se già hai una FTW3 perché mai dovresti prendere una palit?

amon.akira
11-10-2021, 14:49
Pensa che il mio "oled commercial" ha una resa in hdr che anche il tuo monitor da 32 pollici che costa il doppio non ha, dato che non è un oled.

:blah:

:asd:

TigerTank
11-10-2021, 14:49
preparo i popcorn, finalmente un 3d dove in un colpo solo posso godermi qualche minuto di spensieratezza in pausa cicca, senza dover switchare fra i 3d :fagiano:

Nvidia mi ha rispedito oggi la 3090 dell' RMA, dopo quasi una settimana je l'hanno fatta finalmente :mc: :stordita: :rolleyes:

ps se vi interessa, puramente FYI, la scheda era stata aperta per metterla in acqua e attorno al die avevo steso il conformal coating della thermal gryzzli che è di colore rosso. la fattura non era a mio nome ma della mia spacciatrice, la scheda in oltre è stata riportata a default dalla shunt (saldature varie) che avevo fatto (ok era fatta da dio e ripultia da dio, distinguibile solo da un occhio ben attento, ma tant'è)
tutto quanto sopra = 0 problemi con l'RMA

edit2: ah un altra cosa, l'"advanced" rma non lo fanno più, ossia paghi un altra scheda che ti anticipano loro tenendo bloccati i soldi e poi te li sbloccano al ricevimento della tua difettata. La centralinista non sa dirmi perchè di questa scelta. Ti tocca mandare la tua e al ricevimento e verifica, ti rimandano la nuova

Ottimo, grazie per aver condiviso l'esperienza :)
Questa però evita di "pastrugnarla" :sofico:

(THE REAL) Neo
11-10-2021, 15:09
Se non avessi una gpu la prenderei al volo, ma se già hai una FTW3 perché mai dovresti prendere una palit?Aspetta,io ho una 3080,la Palit é una 3080Ti.

mattxx88
11-10-2021, 15:10
Ottimo, grazie per aver condiviso l'esperienza :)
Questa però evita di "pastrugnarla" :sofico:

e dove sta il divertimento :mc: :D
ormai è cosi noioso tutto l'hardware oggigiorno, fire and forget, 0 smanettamenti

FroZen
11-10-2021, 15:23
:blah:

:asd:

inkia, un miniled........ :stordita: preferisco andare in vacanza per due anni :stordita:

amon.akira
11-10-2021, 15:33
inkia, un miniled........ :stordita: preferisco andare in vacanza per due anni :stordita:

quoto

come è meglio anche andare in vacanza un anno rispetto a vedere una giornata di sole come na giornata nuvolosa verdognola.bluastra, il tutto con la densità di una marmellata di albicocca :asd:

TigerTank
11-10-2021, 16:42
e dove sta il divertimento :mc: :D
ormai è cosi noioso tutto l'hardware oggigiorno, fire and forget, 0 smanettamenti

Ahahahah datti anche al modellismo, quello bello complicato con autocostruzioni e kit integrativi con parti in lamierino :cool: :D

Alekos Panagulis
12-10-2021, 08:14
Aspetta,io ho una 3080,la Palit é una 3080Ti.

Ah ok, non avevo capito.
Cmq non prenderei una palit al posto della FTW3.

Alekos Panagulis
12-10-2021, 08:19
ho aperto un thread a parte giusto stamattina per quanto riguarda HDR :fagiano: ovviamente discutendo di HDR10 cioè quello dei poveri

sarebbe interessante raccogliere le impressioni di tanti utenti

Vedo che è durato quanto una sveltina :asd:

29Leonardo
12-10-2021, 12:52
Vedo che è durato quanto una sveltina :asd:

che poi vorrei sapere qual'è la sezione giusta dato che questa si chiama schede video - discussioni generali :rolleyes:

amon.akira
12-10-2021, 12:58
che poi vorrei sapere qual'è la sezione giusta dato che questa si chiama schede video - discussioni generali :rolleyes:

Hardware Upgrade Forum > Periferiche e accessori > Monitor, Televisori e Videoproiettori

ipotizzo :P

Salfox
12-10-2021, 14:49
Nuovi drivers nvidia 496.13 appena rilasciati, pare ci siano delle novità interessanti del resto il download è aumentato di altri 100 mb :D

EDIT:
preso da DSOGaming

NVIDIA has released a brand new driver for its graphics cards. According to the release notes, the NVIDIA GeForce 496.13 WHQL driver adds a Shader Cache Size setting. By using this setting, players can set the maximum amount of disk space to use for storing shader compiles. In theory, this could reduce stutters when a game compiles its shaders.

Alekos Panagulis
12-10-2021, 15:01
Non so se avete visto i due ultimi video di Buildzoid sul canale Actually Hardware OC. Se non l'avete fatto andateci: https://www.youtube.com/watch?v=w-zSgiMEzkU

Cmq in breve, fa una analisi approfondita del PCB di una Gigabyte 3090 che si è fusa durante una sessione di New World. Nel secondo video riesce anche a resuscitarla (ma non è stabile).
La sua ipotesi è che il punto debole che causa questo genere di incidenti sia il layout asimmetrico dei VRM, che - dice lui - è sbilanciato verso questo o quel power stage a scapito di un altro. Il controller che - davanti a un design simmetrico dovrebbe distribuire la corrente fra i vari power stages in modo equo - in questo caso dovrebbe essere in grado di diversificare fra le varie fasi. A un certo punto però, per motivi non specificati, ne fa saltare una a causa della eccessiva potenza erogata (chiedo venia se sbaglio ma faccio fatica a distinguere fra VRM, power stages e power phases).
In pratica questo riguarda tutte le RTX 3000, comprese le founder, e non è colpa del gioco.

Thunder-74
12-10-2021, 15:06
Nuovi drivers nvidia 496.13 appena rilasciati, pare ci siano delle novità interessanti del resto il download è aumentato di altri 100 mb :D

EDIT:
preso da DSOGaming

NVIDIA has released a brand new driver for its graphics cards. According to the release notes, the NVIDIA GeForce 496.13 WHQL driver adds a Shader Cache Size setting. By using this setting, players can set the maximum amount of disk space to use for storing shader compiles. In theory, this could reduce stutters when a game compiles its shaders.

si
Drivers 496.13
LINK (https://www.nvidia.com/en-us/drivers/results/181108/)

NVIDIA Control Panel > Manage 3D Settings
• Added Shader Cache Size control to set the maximum amount of disk space to use for
storing shader compiles.
• Vertical Sync options for Optimus notebook GPUs are now the same as for desktop GPUs.

DLSS
Back 4 Blood, Baldur's Gate 3, Chivalry 2, Crysis Remastered Trilogy, Rise of the Tomb Raider, Shadow of the Tomb Raider, Sword and Fairy 7 e Swords of Legends Online.

Fixed Issues in this Release:

[GeForce RTX 3080]: The system does not boot with two Samsung Odyssey G70A 28" monitors are connected to the GPU. [3359697]
[GeForce GTX 960]: The primary monitor lost after resume from sleep or shutdown. [3340905]
[Windows 11]: The screen flashes once after switching to the discrete GPU-only mode in the NVIDIA Control Panel. [3330077]
[Multiple Apps][Ansel/Freestyle]: Depth of field filter shows blurry characters. [200749545]
[Notebook]: Vulkan test applications run on the integrated graphics processor instead of the discrete GPU. [200770322]

Open Issues:

[Doom Eternal][HDR][FSR]: Eternal]: Texture across the game darkens and is unplayable after enabling HDR + FSR. [200776916]
[Rise of the Tomb Raider]: Characters and background disappear and corruption is prominent when Anti-Aliasing is set to SSAA 2X and SSAA 4x. [200777463]
[Deathloop][HDR]: TDR/corruption occurs in the game with Windows HDR enabled. If this issue occurs, toggle the Windows HDR setting.
[YouTube]: Video playback stutters while scrolling down the YouTube page. [3129705]
Tom Clancy's The Division 2 may display graphical artifacts. [200754013]
Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
[HDR][G-Sync]: Mouse pointer gets stuck after turning on HDR from the Windows Control Panel or after toggling G-Sync from the NVIDIA control panel. [200762998] To work around, click the mouse (right or left button). The mouse cursor will be sluggish for a few seconds before returning to normal operation.
[NVIDIA Control Panel]: After setting the display multiplexer type to “dGPU”, the setting is not preserved across a reboot or resume from S4. [200779758]
[Windows 11]: Display goes blank when video is switched to full-screen with G-Sync enabled. [200778687]

CrazyDog
12-10-2021, 15:09
si
Drivers 496.13
LINK (https://www.nvidia.com/en-us/drivers/results/181108/)

NVIDIA Control Panel > Manage 3D Settings
• Added Shader Cache Size control to set the maximum amount of disk space to use for
storing shader compiles.
• Vertical Sync options for Optimus notebook GPUs are now the same as for desktop GPUs.

DLSS
Back 4 Blood, Baldur's Gate 3, Chivalry 2, Crysis Remastered Trilogy, Rise of the Tomb Raider, Shadow of the Tomb Raider, Sword and Fairy 7 e Swords of Legends Online.

Fixed Issues in this Release:

[GeForce RTX 3080]: The system does not boot with two Samsung Odyssey G70A 28" monitors are connected to the GPU. [3359697]
[GeForce GTX 960]: The primary monitor lost after resume from sleep or shutdown. [3340905]
[Windows 11]: The screen flashes once after switching to the discrete GPU-only mode in the NVIDIA Control Panel. [3330077]
[Multiple Apps][Ansel/Freestyle]: Depth of field filter shows blurry characters. [200749545]
[Notebook]: Vulkan test applications run on the integrated graphics processor instead of the discrete GPU. [200770322]

Open Issues:

[Doom Eternal][HDR][FSR]: Eternal]: Texture across the game darkens and is unplayable after enabling HDR + FSR. [200776916]
[Rise of the Tomb Raider]: Characters and background disappear and corruption is prominent when Anti-Aliasing is set to SSAA 2X and SSAA 4x. [200777463]
[Deathloop][HDR]: TDR/corruption occurs in the game with Windows HDR enabled. If this issue occurs, toggle the Windows HDR setting.
[YouTube]: Video playback stutters while scrolling down the YouTube page. [3129705]
Tom Clancy's The Division 2 may display graphical artifacts. [200754013]
Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
[HDR][G-Sync]: Mouse pointer gets stuck after turning on HDR from the Windows Control Panel or after toggling G-Sync from the NVIDIA control panel. [200762998] To work around, click the mouse (right or left button). The mouse cursor will be sluggish for a few seconds before returning to normal operation.
[NVIDIA Control Panel]: After setting the display multiplexer type to “dGPU”, the setting is not preserved across a reboot or resume from S4. [200779758]
[Windows 11]: Display goes blank when video is switched to full-screen with G-Sync enabled. [200778687]

solo DCH?

Thunder-74
12-10-2021, 15:18
solo DCH?

hanno uppato solo questi per ora. Alla fine io li uso. Cambia poco. il pannello si va di app da MS store e amen

FrancoBit
12-10-2021, 15:22
Ma la Shader Cache Size ha un valore di default? O devo picchiare pesante ed esagerare con lo spazio a disposizione? Va su C: immagino, scusate sono a lavoro, curioso, ma non ho modo di approfondire per ora

Thunder-74
12-10-2021, 15:23
Ma la Shader Cache Size ha un valore di default? O devo picchiare pesante ed esagerare con lo spazio a disposizione? Va su C: immagino, scusate sono a lavoro, curioso, ma non ho modo di approfondire per ora

ecco come si presenta

https://i.imgur.com/p7Tg8fV.png

FrancoBit
12-10-2021, 15:30
ecco come si presenta



Grazie,
stasera scarico, chissà quel "senza limiti" fino a dove arriva

Thunder-74
12-10-2021, 15:37
Grazie,
stasera scarico, chissà quel "senza limiti" fino a dove arriva

verso l'infinito e oltre ;)

fraussantin
12-10-2021, 15:40
Grazie,

stasera scarico, chissà quel "senza limiti" fino a dove arrivaFino alla fine dell'ssd immagino :asd:



Ps ma da ignorantone che sono , questa che sarebbe la risposta di Nvidia a fc6?

Cutter90
12-10-2021, 15:53
verso l'infinito e oltre ;)

Sei tutti noi. Approfondisci sta roba dai dai :D :D

FrancoBit
12-10-2021, 15:58
verso l'infinito e oltre ;)

Fino alla fine dell'ssd immagino :asd:



Ps ma da ignorantone che sono , questa che sarebbe la risposta di Nvidia a fc6?

E se me lo sfonda? :ciapet:

Thunder-74
12-10-2021, 16:14
Sei tutti noi. Approfondisci sta roba dai dai :D :D

se trovo info volentieri :fagiano: . Certo è che prima non era possibile decidere un limite e si lasciava all'applicazione.

Comunque questi nuovi drivers sono unb po' un taglio con il passato:

NVIDIA ha lanciato oggi il suo driver grafico WHQL GeForce 496.13 pronto per il gioco con molti miglioramenti e modifiche. A partire dalla denominazione, l'azienda è passata dalla versione 472.12 WHQL rilasciata il 20 settembre alla denominazione 49x.xx rilasciata oggi. Un aumento così significativo della denominazione delle versioni è raro e ci fa chiedere perché l'azienda abbia deciso di farlo, probabilmente in preparazione del ramo Windows 11 dei suoi driver, che utilizza la versione 500. Inoltre, questa versione è unica perché manca del versione standard del driver non DCH che NVIDIA rilascia solitamente, oltre al driver DCH. La versione odierna contiene solo la versione DCH del driver, spingendo la tecnica di packaging del driver DCH di Microsoft come via da seguire. Vale la pena sottolineare che i driver DCH sono di dimensioni più ridotte e sono più veloci da installare. In questo momento non ci sono nemmeno driver per Windows 7/8/8.1, forse questi verranno pubblicati presto. Abbiamo chiesto a NVIDIA chiarimenti sulla politica DCH e aggiorneremo questo post quando avremo notizie da loro.

A partire dalla versione 496.13, NVIDIA ha anche rimosso il supporto per Windows 8.1, Windows 8 e Windows 7. L'ultimo driver a supportare questi sistemi operativi è il 472.12. Questo ha un senso, dal momento che tra questa versione e oggi, Microsoft ha lanciato il suo sistema operativo Windows 11. NVIDIA ha anche ridotto il grasso rimuovendo il supporto per l'architettura Kepler, che è stata lanciata nel 2012 e includeva modelli come GeForce GTX 780 Ti, GTX 780, GTX 770, GTX 760, GT 740, GT 730, GTX 690, GTX 680, GTX 670 , GTX 660 Ti, GTX 660, GTX 650 Ti e GTX 630.

FONTE (https://www.techpowerup.com/287749/nvidia-releases-game-ready-496-13-whql-geforce-graphics-driver-support-removed-for-windows-8-1-8-7-kepler)

TigerTank
12-10-2021, 17:10
si
Drivers 496.13
LINK (https://www.nvidia.com/en-us/drivers/results/181108/)


Grazie, do una pulitina e provo anch'io questi + pannello "microsoft" :)

Magari con il rilascio di windows 11 i drivers saranno solo DCH, d'altronde Nvidia è un bel pò che ormai spinge in questa direzione pubblicando solo quelli.

Thunder-74
12-10-2021, 17:16
Grazie, do una pulitina e provo anch'io questi + pannello "microsoft" :)

Magari con il rilascio di windows 11 i drivers saranno solo DCH, d'altronde Nvidia è un bel pò che ormai spinge in questa direzione pubblicando solo quelli.

Di nulla tiger... stavo giocando a F.I.R.S.T. veramente carino

TigerTank
12-10-2021, 17:17
Di nulla tiger... stavo giocando a F.I.R.S.T. veramente carino

Quello del coniglio? :D
E' F.I.S.T. :ciapet:

Tu sei F.I.R.S.T., il nostro apripista :sofico:

EDIT: messi i drivers.

NVCleanstall indica ancora i 472.12 per cui gli ho dovuti scaricare a parte dal sito nvidia, però la cosa carina è che se rileva drivers DCH aggiunge automaticamente l'opzione per scaricare il pannelli nvidia dal Microsoft Store.

http://i.imgur.com/dkPJAxpm.jpg (https://imgur.com/dkPJAxp)

Thunder-74
12-10-2021, 17:55
Quello del coniglio? :D
E' F.I.S.T. :ciapet:

Tu sei F.I.R.S.T., il nostro apripista :sofico:

EDIT: messi i drivers.

NVCleanstall indica ancora i 472.12 per cui gli ho dovuti scaricare a parte dal sito nvidia, però la cosa carina è che se rileva drivers DCH aggiunge automaticamente l'opzione per scaricare il pannelli nvidia dal Microsoft Store.

http://i.imgur.com/dkPJAxpm.jpg (https://imgur.com/dkPJAxp)


Hahahahha hai ragione da pugno sono passato a primo hahahah comunque da provare . La demo non ha RT e dlss. Sul sito nVidia in 4K il dlss triplica le performances .

https://uploads.tapatalk-cdn.com/20211012/14ec4b3ef1211ec3cbc481c3fad499b3.jpg

https://www.nvidia.com/en-us/geforce/news/


Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
12-10-2021, 18:18
Ce l'ho in lista desideri su Steam, lo prenderò :)
Su un video ho visto che il DLSS si può settare OFF o AUTO e poi c'è uno slide "DLSS Sharpness".
Supporta anche Nvidia Reflex.

mikael84
12-10-2021, 18:42
Non so se avete visto i due ultimi video di Buildzoid sul canale Actually Hardware OC. Se non l'avete fatto andateci: https://www.youtube.com/watch?v=w-zSgiMEzkU

Cmq in breve, fa una analisi approfondita del PCB di una Gigabyte 3090 che si è fusa durante una sessione di New World. Nel secondo video riesce anche a resuscitarla (ma non è stabile).
La sua ipotesi è che il punto debole che causa questo genere di incidenti sia il layout asimmetrico dei VRM, che - dice lui - è sbilanciato verso questo o quel power stage a scapito di un altro. Il controller che - davanti a un design simmetrico dovrebbe distribuire la corrente fra i vari power stages in modo equo - in questo caso dovrebbe essere in grado di diversificare fra le varie fasi. A un certo punto però, per motivi non specificati, ne fa saltare una a causa della eccessiva potenza erogata (chiedo venia se sbaglio ma faccio fatica a distinguere fra VRM, power stages e power phases).
In pratica questo riguarda tutte le RTX 3000, comprese le founder, e non è colpa del gioco.

Power stages, eseguono la conversione dalla tensione d'ingresso a quella di uscita.

Ho guardato i vari PCB, e stranamente il gioco fonde le schede con i VRM più scarsi, gli UPI
Solamente EVGA e Gigabyte infatti usa questi VRM per la gestione della corrente nelle varie fasi.
Alcune case, utilizzano solo questo VRM per la banale gestione delle memorie (probabilmente il più economico).

EVGA già inizialmente aveva problemi di distribuzione sul pciexpress.

TigerTank
12-10-2021, 19:06
Power stages, eseguono la conversione dalla tensione d'ingresso a quella di uscita.

Ho guardato i vari PCB, e stranamente il gioco fonde le schede con i VRM più scarsi, gli UPI
Solamente EVGA e Gigabyte infatti usa questi VRM per la gestione della corrente nelle varie fasi.
Alcune case, utilizzano solo questo VRM per la banale gestione delle memorie (probabilmente il più economico).

EVGA già inizialmente aveva problemi di distribuzione sul pciexpress.

Mike mi hai messo la pulce nell'orecchio.
Vero quello che scrivi circa gli UPI ma a quanto pare EVGA poi li ha cambiati.
Ad esempio la 3080Ti FTW3 monta gli OnSemi. LINK (https://www.techpowerup.com/review/evga-geforce-rtx-3080-ti-ftw3-ultra/3.html).

mikael84
12-10-2021, 19:12
Mike mi hai messo la pulce nell'orecchio.
Vero quello che scrivi circa gli UPI ma a quanto pare EVGA poi li ha cambiati.
Ad esempio la 3080Ti FTW3 monta gli OnSemi. LINK (https://www.techpowerup.com/review/evga-geforce-rtx-3080-ti-ftw3-ultra/3.html).

Vero, per la 3080ti ha messo tutti Onsemi.
Infatti la 3090 è completamente upi, come la "vecchia" 3080.
https://www.techpowerup.com/review/evga-geforce-rtx-3090-ftw3-ultra/3.html


Non si sa, se ha aggiornato pure le altre. Almeno non saprei.

TigerTank
12-10-2021, 19:19
Vero, per la 3080ti ha messo tutti Onsemi.
Infatti la 3090 è completamente upi, come la "vecchia" 3080.
https://www.techpowerup.com/review/evga-geforce-rtx-3090-ftw3-ultra/3.html


Non si sa, se ha aggiornato pure le altre. Almeno non saprei.

Forse hanno provveduto anche sulle 3080 di produzione postuma. Butta un occhio a QUESTO POST (https://forums.evga.com/FindPost/3437884) del forum evga e ai link.

E questo è il pcb della recensione indicata in cui si vede che monta gli OnSemi. FOTO (https://tweakers.net/ext/i/2004196198.jpeg).

Anche se non mi torna che quella scheda abbia ancora il baffo rosso...per cui prendo tutto con le pinze.

Sarei curioso di aprire la mia e controllare, se non fosse per lo sbattimento con la pasta termica sugli induttori.
Con la mia comunque per fortuna non ho mai avuto problemi di PCI-E.

mikael84
12-10-2021, 19:53
Forse hanno provveduto anche sulle 3080 di produzione postuma. Butta un occhio a QUESTO POST (https://forums.evga.com/FindPost/3437884) del forum evga e ai link.

E questo è il pcb della recensione indicata in cui si vede che monta gli OnSemi. FOTO (https://tweakers.net/ext/i/2004196198.jpeg).

Anche se non mi torna che quella scheda abbia ancora il baffo rosso...per cui prendo tutto con le pinze.

Sarei curioso di aprire la mia e controllare, se non fosse per lo sbattimento con la pasta termica sugli induttori.
Con la mia comunque per fortuna non ho mai avuto problemi di PCI-E.

Molte cose ma confuse.
In primis il 6 pin adattato ad 8 per competere, potrebbe spiegare la soglia misera caricata su un pcie. Anche se in realtà sul 6 pin, il carico è davvero minimo.
150+150+60+40 (400w)
Hanno fatto un'aggiornamento ad onsemi per la questione di ripartizione pciexpress degli UPI, come sempre sostenuto era proprio un problema di ripartizione, per quello che EVGA stava zitta.

Però bisogna vedere quante sono quelle con UPI in giro e quelle con Onsemi, perchè uno (se non ho letto male), menziona l'aggiornamento delle 3080 e 3080ti alla 3090 base, che è totalmente Upi (proprio quelle che saltano).

CrazyDog
12-10-2021, 20:05
hanno uppato solo questi per ora. Alla fine io li uso. Cambia poco. il pannello si va di app da MS store e amen

tu come hai impostato la nuova opzione di cache shader? 5/10GB basteranno?

fraussantin
12-10-2021, 20:21
Molte cose ma confuse.
In primis il 6 pin adattato ad 8 per competere, potrebbe spiegare la soglia misera caricata su un pcie. Anche se in realtà sul 6 pin, il carico è davvero minimo.
150+150+60+40 (400w)
Hanno fatto un'aggiornamento ad onsemi per la questione di ripartizione pciexpress degli UPI, come sempre sostenuto era proprio un problema di ripartizione, per quello che EVGA stava zitta.

Però bisogna vedere quante sono quelle con UPI in giro e quelle con Onsemi, perchè uno (se non ho letto male), menziona l'aggiornamento delle 3080 e 3080ti alla 3090 base, che è totalmente Upi (proprio quelle che saltano).

Nel caso di lhr penso si possa stare tranquilli.

Riguardo gli altri , se veramente il problema del pcie è un indizio sicuro , si può controllare facilmente.

Cmq credo che evga abbia risolto il problema più o meno in concomitanza col cambio di colore del baffo.

FroZen
12-10-2021, 21:17
https://www.caffeinamagazine.it/wp-content/uploads/2018/10/roberto-da-crema.jpg

Confermo :O

TigerTank
12-10-2021, 21:24
Molte cose ma confuse.
In primis il 6 pin adattato ad 8 per competere, potrebbe spiegare la soglia misera caricata su un pcie. Anche se in realtà sul 6 pin, il carico è davvero minimo.
150+150+60+40 (400w)
Hanno fatto un'aggiornamento ad onsemi per la questione di ripartizione pciexpress degli UPI, come sempre sostenuto era proprio un problema di ripartizione, per quello che EVGA stava zitta.

Però bisogna vedere quante sono quelle con UPI in giro e quelle con Onsemi, perchè uno (se non ho letto male), menziona l'aggiornamento delle 3080 e 3080ti alla 3090 base, che è totalmente Upi (proprio quelle che saltano).

Comunque ho guardato altre recensioni di Igor's Lab e fatto una ricerca veloce in rete, soprattutto nelle rencensioni delle 3080 su techpowerup dove fanno l'analisi dei pcb e mi sa che alla fine non sono poche le schede che usano gli UPI. Su Igor ad esempio la 3080 KFA2 recensita mentre su TPU anche la 3080 gaming X Trio o la Suprim X(un mix di UPI e di OnSemi), le Zotac o anche la 3080 TUF OC (https://www.techpowerup.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/3.html).
Mentre la sottovalutata 3080 della Palit usa tutti OnSemi. :D
Putroppo non sono molti i siti che nelle recensioni si spingono a fare anche l'analisi dettagliata della componentistica del pcb.

Nel caso di lhr penso si possa stare tranquilli.

Riguardo gli altri , se veramente il problema del pcie è un indizio sicuro , si può controllare facilmente.

Cmq credo che evga abbia risolto il problema più o meno in concomitanza col cambio di colore del baffo.

Guarda non ci fosse stata la pasta l'avrei aperta per controllare perchè mi è venuta proprio la curiosità.
Al massimo se qualcuno riuscisse a prendere una evga recente da mettere a liquido ci faccia sapere :sofico:

mikael84
13-10-2021, 00:00
Nel caso di lhr penso si possa stare tranquilli.

Riguardo gli altri , se veramente il problema del pcie è un indizio sicuro , si può controllare facilmente.

Cmq credo che evga abbia risolto il problema più o meno in concomitanza col cambio di colore del baffo.

Sono le 3090 ad avere problemi con la ripartizione sballata. La 3090 nasce UPI e neppure LHR:)
La ripartizione PCI e, della 3090 non l'ho mai vista.

Comunque ho guardato altre recensioni di Igor's Lab e fatto una ricerca veloce in rete, soprattutto nelle rencensioni delle 3080 su techpowerup dove fanno l'analisi dei pcb e mi sa che alla fine non sono poche le schede che usano gli UPI. Su Igor ad esempio la 3080 KFA2 recensita mentre su TPU anche la 3080 gaming X Trio o la Suprim X(un mix di UPI e di OnSemi), le Zotac o anche la 3080 TUF OC (https://www.techpowerup.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/3.html).
Mentre la sottovalutata 3080 della Palit usa tutti OnSemi. :D
Putroppo non sono molti i siti che nelle recensioni si spingono a fare anche l'analisi dettagliata della componentistica del pcb.




Devi guardare le 3090 però. Molte usano gli Upi come VRM di memoria. :)
Palit-gainward, si, usa onsemi ed Upi ram.
Le Asus infatti con le strix usano MPS, ed upi sulle ram.

EVGA cmq ha dichiarato che le schede morte sono tutte UPI, non dichiarato personalmente, ma appartengono tutte al lotto 2020.
Praticamente la troppa corrente ha danneggiato i mosfet.:)

Max Power
13-10-2021, 00:38
Il RT di FC6 è ovviamente infimo in quanto è un gioco sponsorizzato AMD che il RT appunto non lo digeriscono.
Quindi o lo applicano solo sulle ombre oppure nel modo illustrato, perchè più di quello non gestiscono.



:read: :help:

Informazione campata totalmente all'aria. Priva di alcun valore.

Qualunque recensione va ad indicare l'effeto di riflessione come il preponderante nel ray-tracing di questo titolo.

E sono effetti ibridi. Come d'altronde è l'RT Nvidia.

Il Path Tracing è solo Quake 2 e Minecraft... forse qualcos'altro, ma di semplice.

Cutter90
13-10-2021, 06:49
Informazione campata totalmente all'aria. Priva di alcun valore.

Qualunque recensione va ad indicare l'effeto di riflessione come il preponderante nel ray-tracing di questo titolo.

E sono effetti ibridi. Come d'altronde è l'RT Nvidia.

Il Path Tracing è solo Quake 2 e Minecraft... forse qualcos'altro, ma di semplice.

Non so che analisi tu abbia visto. Forse non l'hai proprio vista (quella di DF) Nemmeno il (ormai) banalissimo ray tracing sui riflessi è applicato in modo decente in FC6. Tant'è vero che pu nemmeno ci sono selettori di qualità. I riflessi sono a 1/4 delle res e anche buggati. Per le ombre stessa storia: zero possibilità di gestirne la qualità, risoluzione bassissima e bug annessi
E' stata presa la versione con sole ed è stata sbattuta su pc senza ottimizzare nulla di nulla. D'altronde, essendo gioco amd non ne avrebbe avuto senso su pc.....
E il tutto facendo solo notare come il Ray trcing sui riflessi e sulle ombre ci sia ormai su tantissimi giochi e sia, di fatto, l'implementazione di gran lunga più semplice della tecnologia....

sertopica
13-10-2021, 08:05
Non so che analisi tu abbia visto. Forse non l'hai proprio vista (quella di DF) Nemmeno il (ormai) banalissimo ray tracing sui riflessi è applicato in modo decente in FC6. Tant'è vero che pu nemmeno ci sono selettori di qualità. I riflessi sono a 1/4 delle res e anche buggati. Per le ombre stessa storia: zero possibilità di gestirne la qualità, risoluzione bassissima e bug annessi
E' stata presa la versione con sole ed è stata sbattuta su pc senza ottimizzare nulla di nulla. D'altronde, essendo gioco amd non ne avrebbe avuto senso su pc.....
E il tutto facendo solo notare come il Ray trcing sui riflessi e sulle ombre ci sia ormai su tantissimi giochi e sia, di fatto, l'implementazione di gran lunga più semplice della tecnologia....

Per la serie un'immagine vale piu' di mille parole: https://i.imgur.com/BL0jPlA.jpeg

:asd:

Cutter90
13-10-2021, 08:29
Per la serie un'immagine vale piu' di mille parole: https://i.imgur.com/BL0jPlA.jpeg

:asd:

Si può dire di tutto a cp2077. Ma non che ad oggi non abbia una delle migliori, se non la migliore, implementazione del Ray Tracing sul mercato. lo metto insieme a Metro Exodus Enanched

sertopica
13-10-2021, 08:35
Si può dire di tutto a cp2077. Ma non che ad oggi non abbia una delle migliori, se non la migliore, implementazione del Ray Tracing sul mercato. lo metto insieme a Metro Exodus Enanched

Assolutamente, fra l'altro in CP i riflessi sono a meta' risoluzione invece di 1/4 (e smanettando puoi anche metterli full res). In ogni caso credo che a FC6 avrebbe senz'altro giovato una qualche sorta di illuminazione globale rt o occlusione ambientale. Ma quelle ciucciano risorse come poche.

Cutter90
13-10-2021, 08:38
Assolutamente, fra l'altro in CP i riflessi sono a meta' risoluzione invece di 1/4 (e smanettando puoi anche metterli full res). In ogni caso credo che a FC6 avrebbe senz'altro giovato una qualche sorta di illuminazione globale rt o occlusione ambientale. Ma quelle ciucciano risorse come poche.

Più che altro FC6 avrebbe giovato di ottimizzazione da 2021 su pc. Non si può e non si deve avere la stessa qualità del RT per console.... sulla 3090....

FrancoBit
13-10-2021, 08:43
tu come hai impostato la nuova opzione di cache shader? 5/10GB basteranno?

Ho letto su reddit, quindi potrebbe essere attendibile ma non al 100%, che a default verrebbe allocato 1gbyte.

sertopica
13-10-2021, 09:02
Più che altro FC6 avrebbe giovato di ottimizzazione da 2021 su pc. Non si può e non si deve avere la stessa qualità del RT per console.... sulla 3090....
Anche :asd:
Ho letto su reddit, quindi potrebbe essere attendibile ma non al 100%, che a default verrebbe allocato 1gbyte.

Credevo fossero 256MB. Io ho messo 10GB, credo di piu' non sia necessario.

Alekos Panagulis
13-10-2021, 09:09
Power stages, eseguono la conversione dalla tensione d'ingresso a quella di uscita.

Ho guardato i vari PCB, e stranamente il gioco fonde le schede con i VRM più scarsi, gli UPI
Solamente EVGA e Gigabyte infatti usa questi VRM per la gestione della corrente nelle varie fasi.
Alcune case, utilizzano solo questo VRM per la banale gestione delle memorie (probabilmente il più economico).

EVGA già inizialmente aveva problemi di distribuzione sul pciexpress.

Buildzoid dice che sono esplose anche alcune Founder, sempre con layout asimmetrico dei VRM.

Thunder-74
13-10-2021, 11:13
tu come hai impostato la nuova opzione di cache shader? 5/10GB basteranno?

per ora lascio decidere al programma/gioco

comunque se vi chiedete dove si trovano le cache:

C:\Users\YOURUSER\AppData\Local\NVIDIA\ (qui ci sono due cartelle DXcache e GLcache)

FrancoBit
13-10-2021, 11:17
per ora lascio decidere al programma/gioco

comunque se vi chiedete dove si trovano le cache:

C:\Users\YOURUSER\AppData\Local\NVIDIA\ (qui ci sono due cartelle DXcache e GLcache)

Siamo proprio a tagliare il capello a metà, ma, con un nvme pcix4.0 probabilmente si ottiene qualcosina in più in performance rispetto a un 3.0.

Thunder-74
13-10-2021, 11:26
Siamo proprio a tagliare il capello a metà, ma, con un nvme pcix4.0 probabilmente si ottiene qualcosina in più in performance rispetto a un 3.0.

possibile, anche se leggo che con alcuni giochi dia più problemi che altro. Ad esempio con Destiny sembra introdurre stuttering. Sul forum nVidia erano incavolati, perchè con i vecchi drivers era possibile attivare/disattivare per il singolo titolo le cache, ora l'opzione è presente sono nelle impostazioni globali

mikael84
13-10-2021, 12:09
Buildzoid dice che sono esplose anche alcune Founder, sempre con layout asimmetrico dei VRM.

Quando lo dice? Non ho tempo di vedere mezz'ora di video.:)
Cmq anche la sua scheda analizzata è una UPI di Giga, con la ripartizione nvidia.

TigerTank
13-10-2021, 13:03
per ora lascio decidere al programma/gioco

comunque se vi chiedete dove si trovano le cache:

C:\Users\YOURUSER\AppData\Local\NVIDIA\ (qui ci sono due cartelle DXcache e GLcache)

Idem, anch'io lascio "Predefinito". Anche perchè appunto ora tale settaggio non è più nei profili dei giochi ma solo in quello generale.


Devi guardare le 3090 però. Molte usano gli Upi come VRM di memoria. :)
Palit-gainward, si, usa onsemi ed Upi ram.
Le Asus infatti con le strix usano MPS, ed upi sulle ram.

EVGA cmq ha dichiarato che le schede morte sono tutte UPI, non dichiarato personalmente, ma appartengono tutte al lotto 2020.
Praticamente la troppa corrente ha danneggiato i mosfet.:)

Ah beh....chiaro che più le vga sono al top come modello, più energia hanno da gestire e più dovrebbero avere componentistica migliore...o trovano il gioco "furmark" e puff....
Personalmente è anche per quello che non mi fiondo a comprare le prime vga che escono perchè sono quelle soggette maggiormente ad eventuali pecche.

Alekos Panagulis
13-10-2021, 13:13
Quando lo dice? Non ho tempo di vedere mezz'ora di video.:)
Cmq anche la sua scheda analizzata è una UPI di Giga, con la ripartizione nvidia.Eh ora dovrei riguardarmelo tutto per la seconda volta... Mi pare verso la fine.

Inviato dal mio IN2023 utilizzando Tapatalk

fraussantin
13-10-2021, 14:07
una cosa strana riguardo la 3080 FE , mi crea disturbo in cuffia sulla soundblaster.

se c'è audio non si sente perchè e leggero , ma se tolgo il volume o ci sono scene di silenzio , e solo mentre è sotto carico si sente un lieve rumore stile coil whaine.

posso fare qualcosa per evitarlo? la sbz è già sullo slot piu lontano

fino ad oggi con la 970 , la 2070 e la 3080 evga non h omai sentito nulla del genere

kiwivda
13-10-2021, 14:15
una cosa strana riguardo la 3080 FE , mi crea disturbo in cuffia sulla soundblaster.

se c'è audio non si sente perchè e leggero , ma se tolgo il volume o ci sono scene di silenzio , e solo mentre è sotto carico si sente un lieve rumore stile coil whaine.

posso fare qualcosa per evitarlo? la sbz è già sullo slot piu lontano

fino ad oggi con la 970 , la 2070 e la 3080 evga non h omai sentito nulla del genere

Si lo fa anche a me la 3090, nonostante il dac esterno, e l'amplificatore separato, è proprio un'interferenza EM che si propaga nella mobo e probabilmente risale nell'audio.

fraussantin
13-10-2021, 14:18
Si lo fa anche a me la 3090, nonostante il dac esterno, e l'amplificatore separato, è proprio un'interferenza EM che si propaga nella mobo e probabilmente risale nell'audio.

ah ok mi metto l'anima in pace allora.

TigerTank
13-10-2021, 14:47
una cosa strana riguardo la 3080 FE , mi crea disturbo in cuffia sulla soundblaster.

se c'è audio non si sente perchè e leggero , ma se tolgo il volume o ci sono scene di silenzio , e solo mentre è sotto carico si sente un lieve rumore stile coil whaine.

posso fare qualcosa per evitarlo? la sbz è già sullo slot piu lontano

fino ad oggi con la 970 , la 2070 e la 3080 evga non h omai sentito nulla del genere

Idem....nessun problema con la mia, la X3 esterna e le cuffie in firma.
Probabilmente è qualcosa specifico delle FE...
Vediamo se qualcun'altro manifesta la stessa cosa.

mikael84
13-10-2021, 15:18
Idem, anch'io lascio "Predefinito". Anche perchè appunto ora tale settaggio non è più nei profili dei giochi ma solo in quello generale.



Ah beh....chiaro che più le vga sono al top come modello, più energia hanno da gestire e più dovrebbero avere componentistica migliore...o trovano il gioco "furmark" e puff....
Personalmente è anche per quello che non mi fiondo a comprare le prime vga che escono perchè sono quelle soggette maggiormente ad eventuali pecche.

Molti spesso guardano solo le fasi ma non il VRM. Insomma da quello che ho potuto vedere, le UPI rtx 3090, stanno schiantando.
Quello che non mi spiego, è, perchè un brand come EVGA sia andata così a risparmio, addirittura adattando un 8 pin su un 6 pin.:)

Eh ora dovrei riguardarmelo tutto per la seconda volta... Mi pare verso la fine.

Inviato dal mio IN2023 utilizzando Tapatalk


E' molto confuso il tipo. Il design di nvidia come sappiamo è stato creato appositamente per la gestione delle fasi di carico ed idle.
Non esistono fasi con maggiore carico di altre, ovvero da 80A ed altre da 50, esistono fasi più cariche di corrente di altre.

Il problema che hanno questi regolatori, è che caricano troppo alcune fasi a scapito delle altre.
EVGA ad esempio, oltre ai controller ha rimosso anche i mosfet, mettendo quelli con più carica.
I mosfet lavorano tra i 40/50A, se un connettore arriva ad 1ms a 200/250watt (esempio), c'è il rischio che qualche fase possa andare ad 80 watt, squagliandosi, mentre altre sono in idle.
Anche per questo le 4090 sono le più colpite, in quanto raggiungono picchi molto elevati.

razor820
13-10-2021, 15:20
una cosa strana riguardo la 3080 FE , mi crea disturbo in cuffia sulla soundblaster.

se c'è audio non si sente perchè e leggero , ma se tolgo il volume o ci sono scene di silenzio , e solo mentre è sotto carico si sente un lieve rumore stile coil whaine.

posso fare qualcosa per evitarlo? la sbz è già sullo slot piu lontano

fino ad oggi con la 970 , la 2070 e la 3080 evga non h omai sentito nulla del genere

Lo ha fatto in passato anche a me con la strix 2080. Il ronzio lo percepisci quando la gpu comincia a lavorare sopra il 50%?
Teoricamente non puoi farci nulla. Dipende dalla schermatura delle due schede, puo' far la differenza anche se sono più vicine.
Quando invece avevo il dissipatore a liquido della Ek, non avevo più questo fastidio ma di contro avevo il coil whine :D

fraussantin
13-10-2021, 15:28
Lo ha fatto in passato anche a me con la strix 2080. Il ronzio lo percepisci quando la gpu comincia a lavorare sopra il 50%?

Teoricamente non puoi farci nulla. Dipende dalla schermatura delle due schede, puo' far la differenza anche se sono più vicine.

Quando invece avevo il dissipatore a liquido della Ek, non avevo più questo fastidio ma di contro avevo il coil whine :DSi esatto è quello , più che un ronzio è un rumore elettrico proprio tipo coil whaine , ma leggero . Pensa che fino ad ora non me ne ero manco accorto .


Cmq non è legato alla % di uso , ma alla frequenza ( quindi voltaggio )

Come passa a 870mv inizia a ronzare .

Se la metto stock ronza ancora di più. E non nel case , ma in cuffia boh..

Cmq non è un dramma come ho detto non si sente nulla in gioco se c'è audio


Immagino che dovrei comprare un dac ottico esterno per tagliare la testa al toro

dylandog_666
13-10-2021, 15:56
Presente,

3080 a liquido, dac amp esterno ma in cuffia se il volume è 0 o poco più si sente il ronzio.

Io pensavo che fosse anche colpa dell'alimentatore a dire la verità...

razor820
13-10-2021, 15:58
Si esatto è quello , più che un ronzio è un rumore elettrico proprio tipo coil whaine , ma leggero . Pensa che fino ad ora non me ne ero manco accorto .


Cmq non è legato alla % di uso , ma alla frequenza ( quindi voltaggio )

Come passa a 870mv inizia a ronzare .

Se la metto stock ronza ancora di più. E non nel case , ma in cuffia boh..

Cmq non è un dramma come ho detto non si sente nulla in gioco se c'è audio


Immagino che dovrei comprare un dac ottico esterno per tagliare la testa al toro

Si maggior uso di gpu, maggior uso di potenza..
Cmq è fastidioso specialmente se usi cuffia con volume basso.
Teoricamente non puoi farci niente. Con la scheda audio integrata non dovrebbe presentarsi il problema. Prova

cica88
13-10-2021, 16:42
Visto che si sta parlando di interferenze, devo dire che con la RTX 3080Ti mi sono spariti i problemi con la scheda wi-fi della banda 5Ghz.
Con la 1080 Ti / 2080 Ti appena la scheda andava sotto carico, ping alle stelle e pacchetti persi a non finire.

razor820
13-10-2021, 16:51
Qualcuno mi potrebbe consigliare i parametri di underwolt di msi per la 3080ti fe e il settaggi delle ventole?

Voglio tenerla più fresca possibile.
Vorrei anche evitare di cambiare le 3 ventole frontali del case in immissione.

fraussantin
13-10-2021, 16:55
Qualcuno mi potrebbe consigliare i parametri di underwolt di msi per la 3080ti fe e il settaggi delle ventole?

Voglio tenerla più fresca possibile.
Vorrei anche evitare di cambiare le 3 ventole frontali del case in immissione.Per la ti non saprei è un bel po' più tosta della liscia , ma io al momento la sto tenendo a 870mv 1900.
Profilo ventole all'80% a 70 gradi 100% 75 ( mai visti 75 gradi così settata)

razor820
13-10-2021, 17:05
Per la ti non saprei è un bel po' più tosta della liscia , ma io al momento la sto tenendo a 870mv 1900.
Profilo ventole all'80% a 70 gradi 100% 75 ( mai visti 75 gradi così settata)


80%?? Spero non sia rumorosa.

fraussantin
13-10-2021, 17:50
80%?? Spero non sia rumorosa.Con le cuffie non si sente .

Sono ventole ottime

Alzatan
13-10-2021, 21:43
Ciao a tutti... Entrato nel club con una 3080ti founders edition, già montata nel mio mini pc nuovo intel nuc 11 extreme

(THE REAL) Neo
13-10-2021, 22:46
Ciao a tutti... Entrato nel club con una 3080ti founders edition, già montata nel mio mini pc nuovo intel nuc 11 extremeWelcome to the powerful side.

Max Power
14-10-2021, 00:23
Per la serie un'immagine vale piu' di mille parole: https://i.imgur.com/BL0jPlA.jpeg

:asd:


Si può dire di tutto a cp2077. Ma non che ad oggi non abbia una delle migliori, se non la migliore, implementazione del Ray Tracing sul mercato. lo metto insieme a Metro Exodus Enanched

CyberBug, un anno per ottimizzarlo...

Metro Exodus Enanched, 2 anni dopo la prima pubblicazione.

FarCry cos'è uscito? La scorsa settmana?


Assolutamente, fra l'altro in CP i riflessi sono a meta' risoluzione invece di 1/4 (e smanettando puoi anche metterli full res). In ogni caso credo che a FC6 avrebbe senz'altro giovato una qualche sorta di illuminazione globale rt o occlusione ambientale. Ma quelle ciucciano risorse come poche.

Ha tutte e due, e qui è provato su una 3090, così siete contenti: https://wccftech.com/far-cry-6-4k-rtx-3090-reshade-ao/

State sereni.

fraussantin
14-10-2021, 06:59
CyberBug, un anno per ottimizzarlo...

Metro Exodus Enanched, 2 anni dopo la prima pubblicazione.

FarCry cos'è uscito? La scorsa settmana?




Ha tutte e due, e qui è provato su una 3090, così siete contenti: https://wccftech.com/far-cry-6-4k-rtx-3090-reshade-ao/

State sereni.Non voglio aprire flame , ne giustificare cdproject per i loro comportamenti in fase sviluppo e prelancio , ma che senso ha paragonare un gioco mastodontico totalmente nuovo iniziato da 0 senza l'esperienza , l'organizzazione , personale consolidato ecc necessari per farli con un clone dei 3 titoli precedenti dai quali recuperi Engine , asset , texture , audio , effetti , e gameplay?

Dai Ubisoft ( che difendo da sempre) sta iniziando a stufare anche me.

L'unica cosa che mette di nuovo nei suoi giochi é la dimensione della mappa.

A sto giro ha tolto anche l'italiano per pagare quel tizio di bb . Almeno avesse preso una bella gnocca .


PS giocatevi ghostrunner , é difficile ma da una soddisfazione quando superi i livelli imparagonabile.

Sembra bella anche la trama , ma non riesco a seguirla , chiacchierano durante il gameplay e non riesco a leggere. Mi cercherò qualche video sul tubo a fine gioco.

sertopica
14-10-2021, 08:04
Non voglio aprire flame , ne giustificare cdproject per i loro comportamenti in fase sviluppo e prelancio , ma che senso ha paragonare un gioco mastodontico totalmente nuovo iniziato da 0 senza l'esperienza , l'organizzazione , personale consolidato ecc necessari per farli con un clone dei 3 titoli precedenti dai quali recuperi Engine , asset , texture , audio , effetti , e gameplay?

Dai Ubisoft ( che difendo da sempre) sta iniziando a stufare anche me.

L'unica cosa che mette di nuovo nei suoi giochi é la dimensione della mappa.

A sto giro ha tolto anche l'italiano per pagare quel tizio di bb . Almeno avesse preso una bella gnocca .


PS giocatevi ghostrunner , é difficile ma da una soddisfazione quando superi i livelli imparagonabile.

Sembra bella anche la trama , ma non riesco a seguirla , chiacchierano durante il gameplay e non riesco a leggere. Mi cercherò qualche video sul tubo a fine gioco.
La ragione e' nel tuo post... Flame. :asd:

Stiamo sereni. :asd:

fraussantin
14-10-2021, 08:08
La ragione e' nel tuo post... Flame. :asd:



Stiamo sereni. :asd:🔥🔥🔥🔥

:asd:

Blee
14-10-2021, 08:10
Con le cuffie non si sente .

Sono ventole ottime

LA mia Zotac Amp Holo se la setto a 80% devo andare a giocare in un'altra stanza e chiudere la porta :D :D :D :D Mai sentite ventole più rumorose. MA non vado mai oltre il 70%

Cutter90
14-10-2021, 08:24
CyberBug, un anno per ottimizzarlo...

Metro Exodus Enanched, 2 anni dopo la prima pubblicazione.

FarCry cos'è uscito? La scorsa settmana?




Ha tutte e due, e qui è provato su una 3090, così siete contenti: https://wccftech.com/far-cry-6-4k-rtx-3090-reshade-ao/

State sereni.

Ma sei serio? Quello ha un Reshade... cosa c'entra con il RT nativo?
Metro exodus al d1 aveva un rt migliore di quello di far cry 6. E metro exodus è stato il primo gioco con RT mai uscito o quasi.Cp2077 al d1 aveva il miglior rt mai uscito finora e tutt'ora è al pari con metro enanched come complessità e gestione del RT. Ubisoft non sistema mai nulla nei suoi giochi, se non bug. FC6 ha un rt basico e pure buggato.
Parliamo davvero di niente.

Ovviamente ho giocato tutto con la 3090, quindi oltre alle analisi ho provato tutto.

leone93
14-10-2021, 08:48
Cosa terreste fra una 3070ti e una 6800, ci sono pro e contro da ambedue le schede. Quanto la potenza in raster delle 6800 più i 16gb di vram incide rispetto alla presenza del dlss e un rtx di un certo livello ? Quale potrebbe durare di più nel tempo secondo voi ?

mattxx88
14-10-2021, 08:51
Cosa terreste fra una 3070ti e una 6800, ci sono pro e contro da ambedue le schede. Quanto la potenza in raster delle 6800 più i 16gb di vram incide rispetto alla presenza del dlss e un rtx di un certo livello ? Quale potrebbe durare di più nel tempo secondo voi ?

Qua dentro ti diranno di tenere la 3070, nell'altro 3d ti diranno la 6800
valuta in base alle tue necessità imho

Cutter90
14-10-2021, 08:56
Cosa terreste fra una 3070ti e una 6800, ci sono pro e contro da ambedue le schede. Quanto la potenza in raster delle 6800 più i 16gb di vram incide rispetto alla presenza del dlss e un rtx di un certo livello ? Quale potrebbe durare di più nel tempo secondo voi ?

La 3070 ti è molto meglio della 6800 base, non XT....

In realtà pensavo di si. E invece mnon è vero. In raster la 6800 va di più. discorso molto diverso se si entra nel RT e Dlss

Vash88
14-10-2021, 18:41
Cosa terreste fra una 3070ti e una 6800, ci sono pro e contro da ambedue le schede. Quanto la potenza in raster delle 6800 più i 16gb di vram incide rispetto alla presenza del dlss e un rtx di un certo livello ? Quale potrebbe durare di più nel tempo secondo voi ?

Dipende dalla risoluzione, se si vuole usare DLSS e RTX e se il resto del sistema digerisce meglio AMD o Nvidia a livello di compatibilità. Sono due schede che se la giocano abbastanza. Per me il DLSS a 4k funziona molto bene ma con le prove che ho fatto non mi è sembrato eccezionale in 1440p ad esempio. Se dovessi prendere una scheda per 1440p forse andrei di 6800 per la maggiore Vram.

Dono89
14-10-2021, 19:57
Cosa terreste fra una 3070ti e una 6800, ci sono pro e contro da ambedue le schede. Quanto la potenza in raster delle 6800 più i 16gb di vram incide rispetto alla presenza del dlss e un rtx di un certo livello ? Quale potrebbe durare di più nel tempo secondo voi ?


Dipende da te.
Innanzitutto giochi in 2k o 4K?
Se 2k andrei di 3070ti se 4K amd

FroZen
14-10-2021, 21:20
Cadi in piedi con qualsiasi delle due

archaon89x
15-10-2021, 09:15
sono riuscito a prendere una rtx 3080 ti FE nello scorso drop :D
è consigliabile come sulla rtx 3080 FE cambiare i pad termici sulle memorie?
se si , quali comprare?

kiwivda
15-10-2021, 09:33
sono riuscito a prendere una rtx 3080 ti FE nello scorso drop :D
è consigliabile come sulla rtx 3080 FE cambiare i pad termici sulle memorie?
se si , quali comprare?

Mah non fondamentale, il dissi della 3080ti è maggiorato come la 3090, ma di sicuro gli fai un favore.

One enjoy Thermalright Pad Termico 12,8 W/MK
o
GELID SOLUTIONS GP-Ultimate 15W/MK

razor820
15-10-2021, 09:43
Mah non fondamentale, il dissi della 3080ti è maggiorato come la 3090, ma di sicuro gli fai un favore.

One enjoy Thermalright Pad Termico 12,8 W/MK
o
GELID SOLUTIONS GP-Ultimate 15W/MK


io per qualche settimana lascio tutto così, tempo di restare in generale e che non abbia nessun tipo di malfunzionamento e poi anch io avevo pensato a qualcosa del genere.
Liquidare di nuovo a questo giro non mi va.
Per qualche anno voglio rimanere senza custom loop, al limite se ci fosse un all in one decente solo per la gpu ci farei un pensierino

archaon89x
15-10-2021, 10:33
Mah non fondamentale, il dissi della 3080ti è maggiorato come la 3090, ma di sicuro gli fai un favore.

One enjoy Thermalright Pad Termico 12,8 W/MK
o
GELID SOLUTIONS GP-Ultimate 15W/MK

perfetto, vedo come va e valuto, tanto non si perde la garanzia giusto?

leone93
15-10-2021, 10:37
Cadi in piedi con qualsiasi delle due

Vero ma devo capire se DLSS + RTX > VRAM e potenza in raster, perché tutti parlano che la memoria in più renda la 6800 più longeva ma visto la quantità di giochi con il DLSS non ne sarai cosi sicuro soprattutto per me che gioco a giochi prettamente single player e a simulatori di guida

Vash88
15-10-2021, 10:52
La mia esperienza è che il cambio di pad termici sulle FE va fatto solo da chi ha molta pazienza e manualità. Il problema è che ci sono almeno 3 altezze diverse di pad. Si può usare un pad morbido come i gelid, che si comprime abbastanza ma studia molto bene dove vanno applicati. Il rischio è di avere una pressione non uniforme sul die e avere un hotspot sulla gpu molto più elevato del normale. Ho dovuto smontare la 3080 FE 5 volte prima di riuscire ad avere il contatto giusto e nonostante tutto ho ancora 16 gradi di differenza tra gpu average e gpu hotspot quando al 100% dello sforzo. In compenso la temperatura delle vram si è abbassata da 104° a 88° usando cyberpunk in 4k rt e dlss on senza vsinc

Per controllare di aver fatto un buon lavoro, misura l'attuale delta tra gpu e gpu hotspot con la scheda sotto massimo sforzo. Questa diventa la tua baseline. Il cambio di pasta termica non fa recuperare
quasi niente sulle FE.
Nei test che vedi su yt tutti lo fanno per fare mining quindi ci sono pochissimi video che si concentrano sulla temperatura del die della gpu perché non conta in quel contesto.

mattxx88
15-10-2021, 10:57
se volete ripaddare e non avete alba degli spoessori corretti consiglio questa spesa:

https://www.digikey.it/product-detail/it/t-global-technology/TG-PP10-50/1168-TG-PP10-50-ND/6204863

il prodotto si presenta così:

https://i.ibb.co/qy7nQzf/strixnewblockputty-jpg.jpg (https://ibb.co/2nW64wQ)

Salfox
15-10-2021, 11:13
perfetto, vedo come va e valuto, tanto non si perde la garanzia giusto?

Attenzione perchè la 3080ti FE non ha il dissipatore maggiorato della 3090 FE (al contrario di quello che dice Kiwivda) ma purtroppo quello ciofeca della 3080 FE e quindi scalda molto, un amico che ce l'ha mi ha detto che le memorie sulla sua viaggiano quasi fisse a 100 gradi.

kiwivda
15-10-2021, 11:19
Attenzione perchè la 3080ti FE non ha il dissipatore maggiorato della 3090 FE (al contrario di quello che dice Kiwivda) ma purtroppo quello ciofeca della 3080 FE e quindi scalda molto, un amico che ce l'ha mi ha detto che le memorie sulla sua viaggiano quasi fisse a 100 gradi.

Sorry ero rimasto che fosse quello della 3090. Eh allora cornuti e mazziati.

archaon89x
15-10-2021, 11:29
La mia esperienza è che il cambio di pad termici sulle FE va fatto solo da chi ha molta pazienza e manualità. Il problema è che ci sono almeno 3 altezze diverse di pad. Si può usare un pad morbido come i gelid, che si comprime abbastanza ma studia molto bene dove vanno applicati. Il rischio è di avere una pressione non uniforme sul die e avere un hotspot sulla gpu molto più elevato del normale. Ho dovuto smontare la 3080 FE 5 volte prima di riuscire ad avere il contatto giusto e nonostante tutto ho ancora 16 gradi di differenza tra gpu average e gpu hotspot quando al 100% dello sforzo. In compenso la temperatura delle vram si è abbassata da 104° a 88° usando cyberpunk in 4k rt e dlss on senza vsinc

Per controllare di aver fatto un buon lavoro, misura l'attuale delta tra gpu e gpu hotspot con la scheda sotto massimo sforzo. Questa diventa la tua baseline. Il cambio di pasta termica non fa recuperare
quasi niente sulle FE.
Nei test che vedi su yt tutti lo fanno per fare mining quindi ci sono pochissimi video che si concentrano sulla temperatura del die della gpu perché non conta in quel contesto.

tutto chiaro, grazie
sicuramente lo farò, vedere la vram più di 100° non esiste proprio
anche se ci dovessi mettere una giornata intera a smontare e rimontare xD

amon.akira
15-10-2021, 12:21
Sorry ero rimasto che fosse quello della 3090. Eh allora cornuti e mazziati.

si purtroppo fanno sempre ste cazzate, io l avrei messo anche sulle 3080, tanto 370w/400w sei li...ci mettevano 20euro in piu di ricarico e facevano piu bella figura.

come pure a scalare avrei messo quello della 3080 sulla 3070ti da 320w

TigerTank
15-10-2021, 14:07
se volete ripaddare e non avete alba degli spoessori corretti consiglio questa spesa:

https://www.digikey.it/product-detail/it/t-global-technology/TG-PP10-50/1168-TG-PP10-50-ND/6204863

il prodotto si presenta così:

https://i.ibb.co/qy7nQzf/strixnewblockputty-jpg.jpg (https://ibb.co/2nW64wQ)

Se non sbaglio è la putty che ho visto usare da un tizio miner per ripaddare le millemila 3080 FTW3 che aveva :D

EDIT:QUI (https://youtu.be/1iOf115qzk0?list=FLUhWEZxiL41iy2BIf80rIaA&t=478) la usa sugli induttori.
Tu l'hai usata per sostituire tutti i pads?

mattxx88
15-10-2021, 14:11
Se non sbaglio è la putty che ho visto usare da un tizio miner per ripaddare le millemila 3080 FTW3 che aveva :D

sicuro la usano anche lui, l'ho vista usare su oc.net io
purtroppo è sempre out of stock, un mese fa hanno fatto un drop (di putty) e ne ho presa uno per prova ma devo ancora aprirlo

oggi mi consegnano la 3090, potrei provarla prima di metterla nel wubbo visto che la devo saldare

razor820
15-10-2021, 15:00
io ho visto su amazon quelli della grizzly. i pad delle memorie intendo.
Sono ottimi.
Solo da quanto ho capito devi ordinare lo spessore esatto altrimenti non fanno il loro dovere

mattxx88
15-10-2021, 15:09
i migliori come caratteristiche meccaniche e transfer di calore sono i gelid extreme (no ultimate) perchè più morbidi e riescono a comprimersi meglio anche a fronte di misure poco standard

esempio vedevo qualche evga che voleva pad da 2.75mm in questo caso i gelid da 3mm sarebbero ottimali

thermalright odissey, gelid ultimate e thermal gryzzly sono piu duri, quindi li usi solo se sei certo al 100% dello spessore richiesto (esempio nei waterblock dove sono scritti in chiaro gli spessori necessari)

razor820
15-10-2021, 15:37
Ho trovato questo video, che come professionalità sembra il migliore.
Da notare le differenze termiche prima e dopo la sostituzione dei pad termici e della pasta termica del core. Differenza abnorme..


https://www.youtube.com/watch?v=-dzXbTQ88k0

TigerTank
15-10-2021, 15:42
io ho visto su amazon quelli della grizzly. i pad delle memorie intendo.
Sono ottimi.
Solo da quanto ho capito devi ordinare lo spessore esatto altrimenti non fanno il loro dovere

Sì infatti è un pò un casino, specialmente di questi tempi.
Se non stai attento rischi anche di far danno, devi andare a colpo sicuro.
Io con la mia per ora ho lasciato perdere perchè a parte il fatto di andare bene e stare in un ambiente fresco che ora sarà ancora più fresco, diverse guide davano misure di spessori diversi.

razor820
15-10-2021, 16:36
Sì infatti è un pò un casino, specialmente di questi tempi.
Se non stai attento rischi anche di far danno, devi andare a colpo sicuro.
Io con la mia per ora ho lasciato perdere perchè a parte il fatto di andare bene e stare in un ambiente fresco che ora sarà ancora più fresco, diverse guide davano misure di spessori diversi.


che temperature arrivi nelle memorie?

TigerTank
15-10-2021, 18:27
che temperature arrivi nelle memorie?

Quando l'ho rodata agli inizi tra bench e altro ho rilevato temp sui 75-80°C
Ora non sto giocando/monitorando molto e smaltendo titoli non esosi ma sta arrivando la stagione fredda(e si spera più tempo libero) per cui metterò sotto i mattoni e lì monitorerò meglio.
Certo un cambio pad farebbe sempre bene ma se fatto bene e al momento non mi va di cimentarmi tra questione spessori ed il fatto che la mia scheda usa la pasta termica sugli induttori. Tanto per fare un esempio, dicevo che bisogna andare a colpo sicuro per evitare situazioni come QUESTA (https://www.reddit.com/r/gpumining/comments/q44ovc/did_thermal_pad_mod_to_my_3080_ti_fe_and_now_my/), in cui nel cambiare i pad ha peggiorato il contatto gpu. :stordita:

razor820
15-10-2021, 18:42
Quando l'ho rodata agli inizi tra bench e altro ho rilevato temp sui 75-80°C
Ora non sto giocando/monitorando molto e smaltendo titoli non esosi ma sta arrivando la stagione fredda(e si spera più tempo libero) per cui metterò sotto i mattoni e lì monitorerò meglio.
Certo un cambio pad farebbe sempre bene ma se fatto bene e al momento non mi va di cimentarmi tra questione spessori ed il fatto che la mia scheda usa la pasta termica sugli induttori. Tanto per fare un esempio, dicevo che bisogna andare a colpo sicuro per evitare situazioni come QUESTA (https://www.reddit.com/r/gpumining/comments/q44ovc/did_thermal_pad_mod_to_my_3080_ti_fe_and_now_my/), in cui nel cambiare i pad ha peggiorato il contatto gpu. :stordita:


:D

poi certo ci credo se ha messo tutta quella pasta termica. Più che conduzione fa da tampone

mattxx88
15-10-2021, 19:37
la mia 3080 FE dopo un oretta di new world, ripaddata con gelid extreme

https://i.ibb.co/S5Lm3Kt/3080new-world.png (https://ibb.co/n6W1LD7)

razor820
15-10-2021, 19:53
la mia 3080 FE dopo un oretta di new world, ripaddata con gelid extreme

https://i.ibb.co/S5Lm3Kt/3080new-world.png (https://ibb.co/n6W1LD7)


ottimo.
E tra l altro il gioco è rinominato per BRUCIA SCHEDE :D

mikael84
15-10-2021, 20:40
Quando l'ho rodata agli inizi tra bench e altro ho rilevato temp sui 75-80°C
Ora non sto giocando/monitorando molto e smaltendo titoli non esosi ma sta arrivando la stagione fredda(e si spera più tempo libero) per cui metterò sotto i mattoni e lì monitorerò meglio.
Certo un cambio pad farebbe sempre bene ma se fatto bene e al momento non mi va di cimentarmi tra questione spessori ed il fatto che la mia scheda usa la pasta termica sugli induttori. Tanto per fare un esempio, dicevo che bisogna andare a colpo sicuro per evitare situazioni come QUESTA (https://www.reddit.com/r/gpumining/comments/q44ovc/did_thermal_pad_mod_to_my_3080_ti_fe_and_now_my/), in cui nel cambiare i pad ha peggiorato il contatto gpu. :stordita:

:asd:

TigerTank
15-10-2021, 21:06
:D

poi certo ci credo se ha messo tutta quella pasta termica. Più che conduzione fa da tampone

In pratica quel tizio ha seguito sì una guida...ma se non ho capito male invece che usare i gelid extreme ha usato gli ultimate che sono meno comprimibili :stordita:

ottimo.
E tra l altro il gioco è rinominato per BRUCIA SCHEDE :D

Eheheh lui ama il rischio :cool: :D
Comunque mi pare siano state molto poche le FE interessate dalla sciagura.

Thunder-74
15-10-2021, 21:37
Il fresco è arrivato. Gioco sui 40 gradi su gpu è quasi 50 su vram e vrm :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

razor820
15-10-2021, 22:16
Il fresco è arrivato. Gioco sui 40 gradi su gpu è quasi 50 su vram e vrm :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk


che ricordi tra tubo, radiatori e raccordi :D
Dopo aver smantellato tutto, per un po' voglio rimanere ad aria. Aria rovente :D

Ludus
16-10-2021, 09:32
La mia esperienza è che il cambio di pad termici sulle FE va fatto solo da chi ha molta pazienza e manualità. Il problema è che ci sono almeno 3 altezze diverse di pad. Si può usare un pad morbido come i gelid, che si comprime abbastanza ma studia molto bene dove vanno applicati. Il rischio è di avere una pressione non uniforme sul die e avere un hotspot sulla gpu molto più elevato del normale. Ho dovuto smontare la 3080 FE 5 volte prima di riuscire ad avere il contatto giusto e nonostante tutto ho ancora 16 gradi di differenza tra gpu average e gpu hotspot quando al 100% dello sforzo. In compenso la temperatura delle vram si è abbassata da 104° a 88° usando cyberpunk in 4k rt e dlss on senza vsinc

Per controllare di aver fatto un buon lavoro, misura l'attuale delta tra gpu e gpu hotspot con la scheda sotto massimo sforzo. Questa diventa la tua baseline. Il cambio di pasta termica non fa recuperare
quasi niente sulle FE.
Nei test che vedi su yt tutti lo fanno per fare mining quindi ci sono pochissimi video che si concentrano sulla temperatura del die della gpu perché non conta in quel contesto.

in realtà i pad della FE hanno tutti la medesima altezza. ci sono diverse guide online su come tagliare i pad 85x45 in maniera tale da ottimizzare gli sprechi.

io ho usato i pad thermalright da 1mm

mattxx88
16-10-2021, 09:35
in realtà i pad della FE hanno tutti la medesima altezza. ci sono diverse guide online su come tagliare i pad 85x45 in maniera tale da ottimizzare gli sprechi.

io ho usato i pad thermalright da 1mm

ti stai confondendo con il waterblock Ek cha ha quote date da EK, se usi 1mm sul dissipatore originale non ti fa contatto

Vash88
16-10-2021, 09:40
la mia 3080 FE dopo un oretta di new world, ripaddata con gelid extreme

https://i.ibb.co/S5Lm3Kt/3080new-world.png (https://ibb.co/n6W1LD7)

Mi sembra che tu abbia un profilo ventole leggermente aggressivo :D

mattxx88
16-10-2021, 09:46
Mi sembra che tu abbia un profilo ventole leggermente aggressivo :D

assolutamente si, abituato al liquido vado in paranoia a vedere temp troppo alte
e giocando in cuffia non le sparo al massimo solo per non rovinare troppo i cuscinetti delle ventole :fagiano:

Thunder-74
16-10-2021, 09:47
assolutamente si, abituato al liquido vado in paranoia a vedere temp troppo alte
e giocando in cuffia non le sparo al massimo solo per non rovinare troppo i cuscinetti delle ventole :fagiano:


Vedere un undervolt su una tua scheda mi fa strano hahahahahha


Inviato dal mio iPhone X utilizzando Tapatalk

mattxx88
16-10-2021, 09:49
Vedere un undervolt su una tua scheda mi fa strano hahahahahha


Inviato dal mio iPhone X utilizzando Tapatalk

lol ma in realtà le tengo sempre in UV le mie, solo nei bench gli apro i rubinetti :sofico:

Sniper88
16-10-2021, 09:59
Bonjour e buon fine settimana.
Come si comportano MSI Afterburner e Riva Tuner con le ultime beta in Windows 11? Creano problemi o si possono installare?

Grazie!

Thunder-74
16-10-2021, 10:26
Bonjour e buon fine settimana.
Come si comportano MSI Afterburner e Riva Tuner con le ultime beta in Windows 11? Creano problemi o si possono installare?

Grazie!

vai tranquillo, in verità su tutto. Sto W11 non mi ha dato nessun problema, anzi lo trovo più reattivo.

demonangel
16-10-2021, 14:40
la mia 3080 FE dopo un oretta di new world, ripaddata con gelid extreme

https://i.ibb.co/S5Lm3Kt/3080new-world.png (https://ibb.co/n6W1LD7)

hinfo64 è perfetto per vedere i miglioramenti di temperatura delle Vram.
Ma assolutamente inadeguato per verificare le temperature esatte delle stesse.

Su Evga 3080 Fw3 ho il controllo ICX tramite sonde, tra cui appunto anche 3 sensori specifici dedicati le Vram

Laddove in Oc +500 sotto stess test Time Spy :

Hwinfo64 Picco 82°
Evga Icx picco 67° nella sonda più calda tra le 3 dedicate alle Vram.

TigerTank
16-10-2021, 14:57
hinfo64 è perfetto per vedere i miglioramenti di temperatura delle Vram.
Ma assolutamente inadeguato per verificare le temperature esatte delle stesse.

Su Evga 3080 Fw3 ho il controllo ICX tramite sonde, tra cui appunto anche 3 sensori specifici dedicati le Vram

Laddove in Oc +500 sotto stess test Time Spy :

Hwinfo64 Picco 82°
Evga Icx picco 67° nella sonda più calda tra le 3 dedicate alle Vram.

Perchè sono rilevazioni diverse.
Il VRAM T Junction non c'entra nulla con i 3 punti di rilevazione vram di evga.
Infatti se scorri per bene HWINFO vedrai che sotto al blocco principale ce n'è un altro con i sensori aggiuntivi della nostra scheda, cioè i 3 vram e i 5 pwr.

http://i.imgur.com/TydrT9al.jpg (https://imgur.com/TydrT9a)

P.S. Non badare ai nomi, li ho personalizzati per degli smanettamenti di integrazione nell'OSD di afterburner che ho fatto :D

fraussantin
16-10-2021, 15:31
Ma infatti il junction a 100 gradi fa paura , ma in realtà é un picco sul punto più caldo . Non la temperatura delle RAM.



Quel valore noi comuni mortali non dovremmo neppure saperlo . Ci mette solo ansia :asd:

Per curiosità sulle 3090 che hanno i chip a maritozzo quanto segna sul posteriore?

Vash88
16-10-2021, 16:27
Cyberpunk in 4k per "benchmark" quindi con scheda sempre al 100% perché con settaggi che la fanno stare sotto i 60 FPS (gioco a 60 fps vsync)
Pad Gelid Extreme
3 arctic p12 in immissione
2 Noctua NF-A14 + Fractal da 120mm in espulsione
21 gradi circa in casa

Ci sto attento ma sono stato ad un passo da mettere il liquido...
Ventole al 60%
A quel punto la scambierei con un altra scheda con dissi migliore piuttosto, troppo costoso.
3080 FE al "limite" circa 48 FPS
https://i.ibb.co/NrX556q/cyberpunk-4k-RTX-3080.png (https://ibb.co/W0QZZWX)

3080 FE "daily" invernale circa 45 FPS
https://i.ibb.co/HBSbSDF/4k-cyberpunk-3080-daily.png (https://ibb.co/Fmryrbx)

Di solito questi due profili vanno bene impostando il gioco in modo da non essere sempre al 100% di utilizzo della scheda (necessario comunque per il vsinc)

Alzatan
16-10-2021, 17:42
Ciao a tutti, sono nuovo alle RTX3000... Ho due domande:
1. C'è un modo di visualizzare tutti i sensori di gpu-z (vedo tutte le linee di potenza e vari voltaggi e temperature) in msi afterburner (così da metterli nell'OSD)?
2. come faccio undervolting in MSI afterburner? come in Pascal? (cioè praticamente mettendo la curva del voltaggio/frequenze piatta oltre il voltaggio max che voglio io)

Grazie!

fraussantin
16-10-2021, 17:47
Ciao a tutti, sono nuovo alle RTX3000... Ho due domande:

1. C'è un modo di visualizzare tutti i sensori di gpu-z (vedo tutte le linee di potenza e vari voltaggi e temperature) in msi afterburner (così da metterli nell'OSD)?

2. come faccio undervolting in MSI afterburner? come in Pascal? (cioè praticamente mettendo la curva del voltaggio/frequenze piatta oltre il voltaggio max che voglio io)



Grazie!

Per i sensori installa hwinfo 64 e tutti i sensori che vedi ( anche negli screen appena postati ) li puoi mettere in matrice sull'osd sotto ad afterburner che usa rivatuner( rtss)

Per undervolt , si esattamente a quel modo .

(THE REAL) Neo
16-10-2021, 17:48
Se non sbaglio è la putty che ho visto usare da un tizio miner per ripaddare le millemila 3080 FTW3 che aveva :D

EDIT:QUI (https://youtu.be/1iOf115qzk0?list=FLUhWEZxiL41iy2BIf80rIaA&t=478) la usa sugli induttori.
Tu l'hai usata per sostituire tutti i pads?

Mi pare che le Ftw3,abbiano proprio quella pasta, originariamente,sugli induttori,peró é grigia.

Thunder-74
16-10-2021, 19:06
Cyberpunk in 4k per "benchmark" quindi con scheda sempre al 100% perché con settaggi che la fanno stare sotto i 60 FPS (gioco a 60 fps vsync)
Pad Gelid Extreme
3 arctic p12 in immissione
2 Noctua NF-A14 + Fractal da 120mm in espulsione
21 gradi circa in casa

Ci sto attento ma sono stato ad un passo da mettere il liquido...
Ventole al 60%
A quel punto la scambierei con un altra scheda con dissi migliore piuttosto, troppo costoso.
3080 FE al "limite" circa 48 FPS
cut
3080 FE "daily" invernale circa 45 FPS
cut
Di solito questi due profili vanno bene impostando il gioco in modo da non essere sempre al 100% di utilizzo della scheda (necessario comunque per il vsinc)

metti al liquido , qualche oretta di BF V :sborone:

https://i.imgur.com/TwH8rbk.png

demonangel
16-10-2021, 20:49
Perchè sono rilevazioni diverse.
Il VRAM T Junction non c'entra nulla con i 3 punti di rilevazione vram di evga.
Infatti se scorri per bene HWINFO vedrai che sotto al blocco principale ce n'è un altro con i sensori aggiuntivi della nostra scheda, cioè i 3 vram e i 5 pwr.

http://i.imgur.com/TydrT9al.jpg (https://imgur.com/TydrT9a)

P.S. Non badare ai nomi, li ho personalizzati per degli smanettamenti di integrazione nell'OSD di afterburner che ho fatto :D

Si bravo, esatto...quei 3 sensori sono le temperature corrette della Vram.
Il VRAM T Junction è un parametro sballato da tenere in considerazione

Dono89
16-10-2021, 20:57
domanda super strana:
ho una zotac 3060 ti twin edge

da bios ha il PL a 220W al 110% e 200W al 100%.

Con undervolt a 900/950/975 mV ogni qualvolta che la vga arriva a 210W , che equivale al 105%, mi taglia la frequenza, com'è possibile? (da afterburner è impostato il limite a 110% ovviamente)

https://i.postimg.cc/J7X1hrwr/Immagine.jpg

Thunder-74
16-10-2021, 22:04
domanda super strana:
ho una zotac 3060 ti twin edge

da bios ha il PL a 220W al 110% e 200W al 100%.

Con undervolt a 900/950/975 mV ogni qualvolta che la vga arriva a 210W , che equivale al 105%, mi taglia la frequenza, com'è possibile? (da afterburner è impostato il limite a 110% ovviamente)

https://i.postimg.cc/J7X1hrwr/Immagine.jpg


I motivi sono 2
1) non si riescono a leggere tutti i pizzi di assorbimento , perché AB aggiorna ogni 500ms , possono esserci quando assorbimenti superiori per breve tempo non letto.
2) considera che il consumo è in funzione della freq. , voltaggio , ma sopratutto complessità della scenda da comporre . Possible che le impostazioni di voltaggio e freq., possano richiedere un consumo maggiore del tuo 110x100, dovendo così scalare voltaggio o freq pari al 105x100. Questo perché lo scalare del voltaggio o freq. non è lineare, ma per step .


Inviato dal mio iPhone X utilizzando Tapatalk

Ludus
16-10-2021, 23:10
ti stai confondendo con il waterblock Ek cha ha quote date da EK, se usi 1mm sul dissipatore originale non ti fa contatto

Con il dosso stock della FE devono essere da 1,5mm, ma tutti uguali, non con quote diverse https://drive.google.com/file/d/18rPk56D8gdOPSzdKH4sC0SCKelHtBGnV/view?usp=drivesdk

mikael84
17-10-2021, 00:02
domanda super strana:
ho una zotac 3060 ti twin edge

da bios ha il PL a 220W al 110% e 200W al 100%.

Con undervolt a 900/950/975 mV ogni qualvolta che la vga arriva a 210W , che equivale al 105%, mi taglia la frequenza, com'è possibile? (da afterburner è impostato il limite a 110% ovviamente)



Perchè la scheda sovraccarica il il PCE 8pin e non il PCI express della mobo.
Controlla quanti watt ti da il pci e, ma dovresti essere sui o sopra i 40 watt.

E' diverso con una scheda da 8+6+pci e, in quanto suddivide meglio, tipo 150+30+40.;)

Thunder-74
17-10-2021, 00:33
Perchè la scheda sovraccarica il il PCE 8pin e non il PCI express della mobo.
Controlla quanti watt ti da il pci e, ma dovresti essere sui o sopra i 40 watt.

E' diverso con una scheda da 8+6+pci e, in quanto suddivide meglio, tipo 150+30+40.;)


Non è detto Mike . Anch io ho visto il pl fermarsi a volte a 437w invece di avere 450w , pur avendo meno di 40w presi dal pcie


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
17-10-2021, 00:44
Non è detto Mike . Anch io ho visto il pl fermarsi a volte a 437w invece di avere 450w , pur avendo meno di 40w presi dal pcie


Inviato dal mio iPhone X utilizzando Tapatalk

Tutti ripartiti, o uno non è al massimo? Come sappiamo i valori di hwinfo ed afterburner non leggono le variazioni minime (considera che il pci express legge 40, ma sono sino a 10/15 watt sulle 3,3v).
Cmq nel suo caso o straccarica il pcie o il connettore, altrimenti 210 da dove li prende.
TDP normalizzato poi a 240watt.

Dono89
17-10-2021, 00:54
Si, ma il 8pin 150w li garantisce, con i 75w del pci siamo a 225

Se il cap è 220 da bios, 220 deve arrivare, non ha senso che si fermi a 210
Che poi, perché proprio 210?

La cosa strana è che a 210 comunque ci arriva se bloccasse per pl arriverebbe a 220 per poi scendere, 210 non ha senso

mikael84
17-10-2021, 01:20
Si, ma il 8pin 150w li garantisce, con i 75w del pci siamo a 225

Se il cap è 220 da bios, 220 deve arrivare, non ha senso che si fermi a 210
Che poi, perché proprio 210?

La cosa strana è che a 210 comunque ci arriva se bloccasse per pl arriverebbe a 220 per poi scendere, 210 non ha senso

Guarda quanto ti segna connettore e pci express.;)
75 il pcie non te li darà mai, al max 66 (5,5 x 12v), gli altri watt sono a 3,3v (10/15watt con le tolleranze), che lui non vede.;)

fraussantin
17-10-2021, 06:52
Si, ma il 8pin 150w li garantisce, con i 75w del pci siamo a 225

Se il cap è 220 da bios, 220 deve arrivare, non ha senso che si fermi a 210
Che poi, perché proprio 210?

La cosa strana è che a 210 comunque ci arriva se bloccasse per pl arriverebbe a 220 per poi scendere, 210 non ha sensoNon sono mai tarati precisi . Uno sta sempre avanti .

Controlla se hw info o GPU Z te li mostra sui valori max.

La mia 3080 evga incollava sul pcie della mobo a 315-325 w e 366 non esistevano manco a piangere.

Questa Fe invece è sbilanciata sul primo connettore a 8 PIN e non di poco rispetto al secondo .
Non ho provato a tirarla perché non ho voglia di sfondare l'alimentatore , ma anche questa dubito che arriverà mai ai valore dichiarati di potenza massima con pl sbloccato ( Ma non mi frega niente l'importante è non averci la mobo a 67w fissi i connettori sono fatti per 300w ,150 li tengono a occhi chiusi )

Per arrivare a pl alti servono le custom con più connettori di alimentazione.

Dono89
17-10-2021, 08:18
Guarda quanto ti segna connettore e pci express.;)
75 il pcie non te li darà mai, al max 66 (5,5 x 12v), gli altri watt sono a 3,3v (10/15watt con le tolleranze), che lui non vede.;)


Ok, però non sono tarati precisi nemmeno quando una scheda ha pl da 200w o 210w eppure ci arrivano precisi al watt.
Con 220 invece sembra di no

fraussantin
17-10-2021, 08:24
Ok, però non sono tarati precisi nemmeno quando una scheda ha pl da 200w o 210w eppure ci arrivano precisi al watt.
Con 220 invece sembra di no150+66 fa 216 se ci metti i 3.3 arrivi a 220 precisi , per avere quello scenario serve una calibrazione di alimentazione nelle vrm precisa al watt , cosa che su queste ampere io non ho visto per ora.

Se invece hai un pl da 200 ci arrivi anche leggermente scalibrato perché hai un gioco di 20 W

La scheda quando uno dei 3 parametri arriva al limite, 12v sul connettore a 150w , 12 v a 66w e il 3.3 v a 9w( mi pare) , ferma la scheda.

Poi per mia esperienza dipende anche dai giochi . Alcuni usano Leggermente di più un connettore rispetto all'altro e si può fermare un po' prima

Dono89
17-10-2021, 08:41
Stessa cosa con cyberpunk e necromunda (che ormai uso come piattaforma di test :D )
Non credo onestamente sia una questione di tolleranze, sono 209,9W spaccati e guarda un po' limita a 210W

http://gpuz.techpowerup.com/21/10/17/3w2.png

ancora una volta 105% e 210W totali

fraussantin
17-10-2021, 08:43
Stessa cosa con cyberpunk e necromunda (che ormai uso come piattaforma di test :D )

Non credo onestamente sia una questione di tolleranze, sono 209,9W spaccati e guarda un po' limita a 210W



http://gpuz.techpowerup.com/21/10/17/3w2.png



ancora una volta 105% e 210W totaliHai già sfondato di 8w l'8 PIN non puoi andare oltre .

Dono89
17-10-2021, 08:56
Hai già sfondato di 8w l'8 PIN non puoi andare oltre .


Ed a causa dei +8w nel 8pin non mi prende i 20w dal pciex?

Continuo a non capire
Il pl limita il consumo totale della scheda.
Se il pci arriva a 158 il pci capisco non arrivi a 75, ma 62 si che sono per l'appunto 158+62= limite pl

fraussantin
17-10-2021, 09:05
Ed a causa dei +8w nel 8pin non mi prende i 20w dal pciex?

Continuo a non capire
Il pl limita il consumo totale della scheda.
Se il pci arriva a 158 il pci capisco non arrivi a 75, ma 62 si che sono per l'appunto 158+62= limite plSi esatto i W vengono presi dalle vrm sulle varie fonti in modo autonomo in base a come sono tarate e in base al gioco.

Il primo che arriva al limite blocca tutto

Per soli 10 e sei anche fortunato . A me ne mancavano 50 sulla vecchia 3080


PS tra l'altro non capisco perché una scheda da 200w abbia un solo connettore.

La mia vecchia 2070 powery ediscio aveva 175w e 2 connettori. Infatti volava a 200w senza problemi di carico da nessuna parte

Dono89
17-10-2021, 09:15
Allora sarà stata la pny 3060ti che avevo ad essere perfetta, mi faceva 210w con 210w di pl

Mi suona strano onestamente, ma ok

mattxx88
17-10-2021, 09:19
Con il dosso stock della FE devono essere da 1,5mm, ma tutti uguali, non con quote diverse https://drive.google.com/file/d/18rPk56D8gdOPSzdKH4sC0SCKelHtBGnV/view?usp=drivesdk

si lo so, pero Vash ha una 3080 e visto che si discuteva di quella, ci vanno tutti pad da 2mm lato core gpu, la 3090 prevede full pad 1,5mm fronte e retro

quanto sopra vale per le FE AD ARIA

te hai scritto che usi full pad 1mm ma devi anche specificare il perché (waterblock EK) senno un utente potrebbe pensare che i pad di 1mm su dissipatore ad aria vadano bene :stordita:

fraussantin
17-10-2021, 09:22
Allora sarà stata la pny 3060ti che avevo ad essere perfetta, mi faceva 210w con 210w di pl

Mi suona strano onestamente, ma okTi faceva 210 perché il limite di alimentazione era sempre 225.

Avevi 15w di margine di errore.

Dono89
17-10-2021, 09:40
Ti faceva 210 perché il limite di alimentazione era sempre 225.

Avevi 15w di margine di errore.

ok, abbiamo la prova che non sia così, è una cosa lato SW come mi aspettavo

questo disinstallando i driver (DDU) e applicando lo stesso oc alle ram e +100 alla gpu senza andare di downvolt
Risultato: 220W raggiunti (quasi 230), continuo a non capire dove risieda il problema.

http://gpuz.techpowerup.com/21/10/17/8ae.png

Thunder-74
17-10-2021, 09:44
Tutti ripartiti, o uno non è al massimo? Come sappiamo i valori di hwinfo ed afterburner non leggono le variazioni minime (considera che il pci express legge 40, ma sono sino a 10/15 watt sulle 3,3v).
Cmq nel suo caso o straccarica il pcie o il connettore, altrimenti 210 da dove li prende.
TDP normalizzato poi a 240watt.

nelle varie prove che ho fatto, con mix differenti di voltaggio/freq., ho notato che ci si più avvicinare di più o di meno al PL massimo prima che tagli, proprio in virtù della richiesta in quel frangente del gioco/bench.
Inoltre sono convito che nel corso del tempo qualche cosa hanno fatto via drivers, perchè appena presa la scheda, riuscivo tranquillamente a sforare i 450w di una decina di watt.

fraussantin
17-10-2021, 10:02
ok, abbiamo la prova che non sia così, è una cosa lato SW come mi aspettavo

questo disinstallando i driver (DDU) e applicando lo stesso oc alle ram e +100 alla gpu senza andare di downvolt
Risultato: 220W raggiunti (quasi 230), continuo a non capire dove risieda il problema.

http://gpuz.techpowerup.com/21/10/17/8ae.pngQuindi il driver nuovo permette di sforare sul pcie?
Interessante .