PDA

View Full Version : [Thread Ufficiale] AMD Radeon RX6000 Series


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 [38] 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63

incorreggiubile
15-07-2021, 13:51
Questi sono i power plan windows giusto? Non so che sistema hai, ma hai provato eventualmente con quelli ryzen?
Certo che sono quelli standard.
Ho Intel.

incorreggiubile
15-07-2021, 13:52
ho notato che con la rx580 la ventolina del chipset x570 non si era MAI messa a girare se non al boot, con la rx6800 gira di continuo, anche in windows uscendo da un gioco, devo ancora verificare se lo fa anche prima di lanciarlo
SAM.

ninja750
15-07-2021, 14:32
la mia non l'ho mai vista girare xD

Mai vista muoversi in 7 mesi... su X570 Aorus Elite...

mai-mai? io me ne sono accorto dal sw

SAM.

non ho bios sam

Esagerao
15-07-2021, 15:04
Proprio ieri sera ho aggiornato l'ultimo bios agesa 1.2.0.3b...

Quando poi sono arrivato a riprogrammare il setting della curva delle ventole ho visto che la ventolina del chipset era in modalità smart quindi ferma che interveniva da 50° in su mentre segnava 46°.
Prontamente ho impostato manualmente la curva da 38° levando subito alcuni gradi.

Ludus
15-07-2021, 16:33
Certo che sono quelli standard.
Ho Intel.

anche amd con serie 5000 non ha più powerplan ad hoc

incorreggiubile
15-07-2021, 19:23
Signori, il codice di FSR

https://github.com/GPUOpen-Effects/FidelityFX-FSR

Vediamo se riesco a compilare eventuali demo integrati, dovrebbe essere 'na strunzata farlo.

EDIT: per chi è interessato (a compilare il demo) deve tassativamente scaricarlo con ricorsione con GIT, è un paccone di roba FUORI dal semplice branch zippato :D Se scaricate lo zip non c'è dentro niente del demo, giusto gli header dello shader (come ipotizzato dal sottoscritto FSR viene applicato come shader durante la pipeline di rendering). L'archivio in totale pesa circa 1 GB.

Non capisco perchè per l'Ultra Quality abbiano scelto 77% e non 75% così da essere facilmente paragonabile alle risoluzioni classiche (2560x1440 al 75% per ogni dimensione fa 1920x1080).
Qui c'è tutta la documentazione: https://github.com/GPUOpen-Effects/FidelityFX-FSR/blob/master/docs/FidelityFX-FSR-Overview-Integration.pdf

incorreggiubile
15-07-2021, 20:20
Signori, il codice di FSR

https://github.com/GPUOpen-Effects/FidelityFX-FSR

Vediamo se riesco a compilare eventuali demo integrati, dovrebbe essere 'na strunzata farlo.

EDIT: per chi è interessato (a compilare il demo) deve tassativamente scaricarlo con ricorsione con GIT, è un paccone di roba FUORI dal semplice branch zippato :D Se scaricate lo zip non c'è dentro niente del demo, giusto gli header dello shader (come ipotizzato dal sottoscritto FSR viene applicato come shader durante la pipeline di rendering). L'archivio in totale pesa circa 1 GB.

Non capisco perchè per l'Ultra Quality abbiano scelto 77% e non 75% così da essere facilmente paragonabile alle risoluzioni classiche (2560x1440 al 75% per ogni dimensione fa 1920x1080).
Qui c'è tutta la documentazione: https://github.com/GPUOpen-Effects/FidelityFX-FSR/blob/master/docs/FidelityFX-FSR-Overview-Integration.pdf
Voilà.
*HO DISATTIVATO - per le immagini qui sotto - LO SHARPENING MUTUATO DA FX CAS (non ho controllato il codice ma ovviamente non ha senso reinventare la ruota :fagiano: ) - Il TAA invece è attivo (altrimenti si nota davvero che è un'immagine upscalata, anche con Ultra Quality :D )*

Native 2560x1440
https://i.postimg.cc/nLb4HJJN/0.jpg (https://postimg.cc/xX5JRBqP)

2560x1440 FSR Quality (66-67%)
https://i.postimg.cc/Kv1BBzcd/1.jpg (https://postimg.cc/fJhVhM9K)


Poi vi uppo i binari compilati&linkati da me medesimo (per l'ultima build di Win10 64, Vulkan) per il solo demo dell'elmo, sono 30 MB. Controllare pure con gli antiVAIRUS :sofico:

incorreggiubile
15-07-2021, 20:35
Poi vi uppo i binari compilati&linkati da me medesimo (per l'ultima build di Win10 64, Vulkan) per il solo demo dell'elmo, sono 30 MB. Controllare pure con gli antiVAIRUS :sofico:
EDIT con DX12

https://www.mediafire.com/file/f65uuwbtsxggllu/FSR+Demo+SciFi+Helmet.7z/file

Intel-Inside
16-07-2021, 06:00
AMD Radeon Software Adrenalin 21.7.1 Released (https://www.amd.com/en/support/kb/release-notes/rn-rad-win-21-7-1)

Mr.K88
16-07-2021, 06:24
Voilà.
*HO DISATTIVATO - per le immagini qui sotto - LO SHARPENING MUTUATO DA FX CAS (non ho controllato il codice ma ovviamente non ha senso reinventare la ruota :fagiano: ) - Il TAA invece è attivo (altrimenti si nota davvero che è un'immagine upscalata, anche con Ultra Quality :D )*

Native 2560x1440
https://i.postimg.cc/nLb4HJJN/0.jpg (https://postimg.cc/xX5JRBqP)

2560x1440 FSR Quality (66-67%)
https://i.postimg.cc/Kv1BBzcd/1.jpg (https://postimg.cc/fJhVhM9K)


Poi vi uppo i binari compilati&linkati da me medesimo (per l'ultima build di Win10 64, Vulkan) per il solo demo dell'elmo, sono 30 MB. Controllare pure con gli antiVAIRUS :sofico:

Bhe niente male davvero si nota una leggera morbidezza ma in movimento dovrebbe essere piu dificile da notare

incorreggiubile
16-07-2021, 07:24
Pure io sono rimasto stupito.

Quality e Ultra Quality non necessitano di sharpening francamente, perchè altrimenti in quei casi viene a generarsi il classico shimmering da "oversharpening".
Performance invece ne beneficia molto. 1280x720+sharpening "regge" per davvero bene, tutto questo in un contesto dove è applicato il temporal AA ovviamente.

Brava AMD :O

Gyammy85
16-07-2021, 07:54
Pure io sono rimasto stupito.

Quality e Ultra Quality non necessitano di sharpening francamente, perchè altrimenti in quei casi viene a generarsi il classico shimmering da "oversharpening".
Performance invece ne beneficia molto. 1280x720+sharpening "regge" per davvero bene, tutto questo in un contesto dove è applicato il temporal AA ovviamente.

Brava AMD :O

Meno male va, possiamo tornare a hypare ampere in beta e il prossimo g100 che spaccherà tutto

incorreggiubile
16-07-2021, 08:03
Meno male va, possiamo tornare a hypare ampere in beta e il prossimo g100 che spaccherà tutto
Il vittimismo scorre potente in te :sofico:

Pacco di FSR con Vulkan e DX 12

https://www.mediafire.com/file/f65uuwbtsxggllu/FSR+Demo+SciFi+Helmet.7z/file

Gyammy85
16-07-2021, 08:07
Il vittimismo scorre potente in te :sofico:

Pacco di FSR con Vulkan e DX 12

https://www.mediafire.com/file/f65uuwbtsxggllu/FSR+Demo+SciFi+Helmet.7z/file

Si chiama sarcasmo, tranquillo non è contagioso

ray_hunter
16-07-2021, 09:23
Meno male va, possiamo tornare a hypare ampere in beta e il prossimo g100 che spaccherà tutto

Si però a dir la verità e penso di non essere l'unico a pensarlo, saresti un po' esagerato con il sarcasmo!

Esagerao
16-07-2021, 10:18
A proposito di fsr qualcuno di voi ha provato resident evil village?

4k tutto maxato con rtx off è veramente spettacolare.
Con fsr on ho quasi 120fps fissi mi dà veramente gusto.

Questa gpu ora inizia a esprimersi a dovere.

Gyammy85
16-07-2021, 10:48
A proposito di fsr qualcuno di voi ha provato resident evil village?

4k tutto maxato con rtx off è veramente spettacolare.
Con fsr on ho quasi 120fps fissi mi dà veramente gusto.

Questa gpu ora inizia a esprimersi a dovere.

Avevo provato per poco la demo dato che era a tempo, ed effettivamente è tanta roba, mi aveva stupito il dettaglio delle texture e delle luci, che nei video compressi di youtube non si evince
Con rt diventa ancora più bello con maggior precisione delle luci/ombre e anche alcuni riflessi

Esagerao
16-07-2021, 11:08
Io ho tirato giù la versione (...senza drm...)

Nel setting della grafica c'era l'opzione fidelity fx che ho attivato non so se stiamo parlando della stessa cosa.

Comunque la prima veduta del villaggio tenebroso da lontano e le prime abitazioni veramente tanta tanta roba.

Gyammy85
16-07-2021, 11:11
Io ho tirato giù la versione (...senza drm...)

Nel setting della grafica c'era l'opzione fidelity fx che ho attivato non so se stiamo parlando della stessa cosa.

Comunque la prima veduta del villaggio tenebroso da lontano e le prime abitazioni veramente tanta tanta roba.

Fidelity fx non è fsr, ma hai messo rt?

giavial
16-07-2021, 11:29
Buongiorno, entro nella discussone causa upgrade da AMD Radeon Shappire Vega 64 Liquid ad AMD RX 6900XT Reference. Che dire....scheda meravigliosa e anche silenziosa oltre che compatta per dimensioni. Fps raddoppiati alla mia risoluzione 2.7K su Monitor 16/9, VA 3440x1440, 100 hertz freesync. Il vecchio leone 3930K overcloccato a 4700 mhz non cede ancora e spinge in maniera ottimale la bestiola. Magari perderò qualcosa, ma non butto questa configurazione mitica X75 del 2011 con scheda madre sabertooth military class e memorie quad channel.;)

giavial
16-07-2021, 11:33
A proposito di fsr qualcuno di voi ha provato resident evil village?

4k tutto maxato con rtx off è veramente spettacolare.
Con fsr on ho quasi 120fps fissi mi dà veramente gusto.

Questa gpu ora inizia a esprimersi a dovere.

Sul mio monitor 16/9 inguardabile, non conosce la risoluzione 3440x1440, ma quando l'hanno fatto sto gioco nel 1990?:D

Gyammy85
16-07-2021, 11:35
Buongiorno, entro nella discussone causa upgrade da AMD Radeon Shappire Vega 64 Liquid ad AMD RX 6900XT Reference. Che dire....scheda meravigliosa e anche silenziosa oltre che compatta per dimensioni. Fps raddoppiati alla mia risoluzione 2.7K su Monitor 16/9, VA 3440x1440, 100 hertz freesync. Il vecchio leone 3930K overcloccato a 4700 mhz non cede ancora e spinge in maniera ottimale la bestiola. Magari perderò qualcosa, ma non butto questa configurazione mitica X75 del 2011 con scheda madre sabertooth military class e memorie quad channel.;)

Perdi più di qualcosa con quella cpu, un cambio è straconsigliato

Gyammy85
16-07-2021, 11:37
Sul mio monitor 16/9 inguardabile, non conosce la risoluzione 3440x1440, ma quando l'hanno fatto sto gioco nel 1990?:D

Vedi se per caso non devi selezionare 21:9 nell'elenco delle risoluzioni

giavial
16-07-2021, 11:39
non credo di averlo visto. Provate tutte le risoluzioni disponibili.

Esagerao
16-07-2021, 11:53
Ah ecco grazie per le delucidazioni... Sono da poco entrato nel mondo delle rx... hehe

Rt spento il resto tutto maxed 4k

Ho una tastiera logitech con display tramite aida 64 ho impostato
Cpu/gpu usage temp e frequenza e fps
Quindi in tempo reale vedo il comportamento di tutto

Con vrr abilitato ho 119/120 fps costanti veramente un piacere vedere gpu e monitor sincronizzati senza un frame perso.

Esagerao
16-07-2021, 11:55
Sul mio monitor 16/9 inguardabile, non conosce la risoluzione 3440x1440, ma quando l'hanno fatto sto gioco nel 1990?:D

Guarda meglio trovi anche la tua ci sono tutte

Billi16
16-07-2021, 12:22
Segnalo che con gli ultimi driver ho avuto un buon aumento su time spy, da 12000 a 12740 di gpu score.

incorreggiubile
16-07-2021, 12:30
Fidelity fx non è FSR.
FX Fidelity è tutta la suite.

Esagerao
16-07-2021, 13:44
Segnalo che con gli ultimi driver ho avuto un buon aumento su time spy, da 12000 a 12740 di gpu score.

Confermo anche da altri forum che stò seguendo... un ragazzo in time spy con la 6900 da 185xx a oltre 19xxx

Io è una settimana dall'acquisto della 6900 che stò smanettando tutto il pc (bios,ov, ram, ventole ,gpu) ora mi godo un pò quanto fatto appena mi prende la scimmia o trovo un bug faccio upgrade drivers.

incorreggiubile
16-07-2021, 14:11
Beh è normale, hanno abbandonato il supporto per le vecchie architetture. Sacrificando la compatibilità si guadagna sempre qualcosina.

incorreggiubile
16-07-2021, 15:15
Con gli ultimi driver e con l'oc che ho sempre usato time spy va in crash.

Port royal invece nessun problema, ne il bench che lo stress test.
Cambiata la pipeline, cambiata la tolleranza all'overlock!

Andy1111
16-07-2021, 15:22
Con gli ultimi driver e con l'oc che ho sempre usato time spy va in crash.

Port royal invece nessun problema, ne il bench ne lo stress test.

ci devi rimettere mano a stock non ho crash con time spy

certo che differenza vecchio pc a liquido con on cpu+gpu e nuovo pc ad aria tutto stock solo sam attivo (ancora per poco)

https://www.3dmark.com/compare/spy/15702467/spy/21545759#

Confermo anche da altri forum che stò seguendo... un ragazzo in time spy con la 6900 da 185xx a oltre 19xxx

Io è una settimana dall'acquisto della 6900 che stò smanettando tutto il pc (bios,ov, ram, ventole ,gpu) ora mi godo un pò quanto fatto appena mi prende la scimmia o trovo un bug faccio upgrade drivers.

a 19k ci sono arrivato io a stock vedi sopra

Esagerao
16-07-2021, 15:40
Ancora non ho benchato perchè se inizio poi mi viene la scimmia di spremere tutto fini ll'ultimo hertz ma c'è caso di farli un paio di passaggi per vedere com è messa la mia macchina.
Già dopo l'ultimo bios agesa 1.2.0.3b mi sono messo smannare le ram e ho trovato i 3800 cl14-14-14-14-26 da 3866 cl 15-15-15-15-34

Maledetto lo zuccone che è in me...

Esagerao
16-07-2021, 17:08
Questo al momento

https://ibb.co/b12NQGT

cpu solo pbo tutto auto ho anche un profilo con curve optimizer ma non mi soddisfa mi sono accorto che la strada presa non è ottimale
stò migliorando il mio know-how

gpu setting 2700/2100 ma boosta meno di quanto impostato penso ci sia da lavorarci

Comunque soddisfatto e con temperature comodamente sotto i 70°

giavial
16-07-2021, 17:31
Mi sono dovuto rivedere completamente l'oc. Che rottura di palle :muro:

Ho perso 50mhz e ho dovuto alzare il vcore da 1100 a 1150.

La vram invece andava bene.

Questo il risultato:

https://www.3dmark.com/3dm/63882649?

P.s. Con il giochino della frequenza minima 100mhz sotto la massima su time spy le prestazioni crollano di brutto.

quanto fai sola gpu? Io 16000 e 12000 totale. ovviamente ho un processore di 10 anni fa anche se a 4700 mhz. Ma sono soddisfatto lo stesso, ho raddoppiato gli fps della vega 64 a liquido su tutti i giochi a 3400x1440. Non male, dai. 3Dmark dice meglio del 92% dei pc.

giavial
16-07-2021, 17:36
Siccome l'ho appena presa la scheda e non la conosco...se imposto overclock GPU e memorie da Pannello di controllo dei driver radeon, faccio danni?Grazie

Esagerao
16-07-2021, 17:49
Siccome l'ho appena presa la scheda e non la conosco...se imposto overclock GPU e memorie da Pannello di controllo dei driver radeon, faccio danni?Grazie

Se non costa fatica date miniguida per ov gpu:

Io imposto 2700 e 1160mv ma vedo che poche volte boosta sopra i 2600.
Si comporta ben al di sotto delle sue possibilità.
Sicuramente c'è uno sbaglio concettuale di fondo.

Re-voodoo
16-07-2021, 19:23
Se non costa fatica date miniguida per ov gpu:

Io imposto 2700 e 1160mv ma vedo che poche volte boosta sopra i 2600.
Si comporta ben al di sotto delle sue possibilità.
Sicuramente c'è uno sbaglio concettuale di fondo.

Per quelle frequenze devi andare a usare mpt che ti permette di aumentare altri fattori, con altri assorbimenti e con altre temperature, questa scheda arriva ad assorbire anche 400w ma se non hai il raffreddamento molto buono ti prende fuoco

Billi16
16-07-2021, 22:44
Ecco il primo gioco che supporta sia DLSS che FSR in un primo confronto:

https://youtu.be/KmaifRsJs2E

Billi16
16-07-2021, 22:54
Io vedo l'FSR molto più nitido.

Si il DLSS è più morbido, comunque entrambi ottimi. La cosa assurda è che con l'FSR le performance sono anche migliori:asd:
Anche l'autore del video (solitamente affidabile per quello che ho visto) dà la sua preferenza a FSR in questo titolo, sottolineando come la qualità di immagine sia simile ma le performance migliori.

Come inizio sembra promettere bene, grande AMD!

Andy1111
16-07-2021, 22:57
Ecco il primo gioco che supporta sia DLSS che FSR in un primo confronto:

https://youtu.be/KmaifRsJs2E

Sembra proprio che non sfigura... anzi , per essere appena uscito.

Non mi ero accorto che erano usciti i driver nuovi

21.6.2

https://www.3dmark.com/spy/21561657

Graphics Score 19103

21.7.1

https://www.3dmark.com/spy/21568653

Graphics Score 19824

tutto a stock solo SAM attivo

Billi16
16-07-2021, 22:59
Sembra proprio che non sfigura... anzi , per essere appena uscito.

Non mi ero accorto che erano usciti i driver nuovi

21.6.2

https://www.3dmark.com/spy/21561657

Graphics Score 19103

21.7.1

https://www.3dmark.com/spy/21568653

Graphics Score 19824

tutto a stock solo SAM attivo

stamattina li ho scaricati anche io e sono salito 700 punti. Mannaggia come spinge la 6900XT!

Edit: il punteggio linkato non è stock, ho le memorie in oc. Comunque c'è una differenza fra le due di circa il 55%

https://www.3dmark.com/spy/21557342

Esagerao
17-07-2021, 00:09
Si il DLSS è più morbido, comunque entrambi ottimi. La cosa assurda è che con l'FSR le performance sono anche migliori:asd:
Anche l'autore del video (solitamente affidabile per quello che ho visto) dà la sua preferenza a FSR in questo titolo, sottolineando come la qualità di immagine sia simile ma le performance migliori.

Come inizio sembra promettere bene, grande AMD!

Quando ho deciso per la 6900 e di rinnegare la 3080ti è proprio questa la scommessa che ho fatto... oltre altri fattori (non economici).

incorreggiubile
17-07-2021, 06:54
Si il DLSS è più morbido, comunque entrambi ottimi. La cosa assurda è che con l'FSR le performance sono anche migliori:asd:
Anche l'autore del video (solitamente affidabile per quello che ho visto) dà la sua preferenza a FSR in questo titolo, sottolineando come la qualità di immagine sia simile ma le performance migliori.

Come inizio sembra promettere bene, grande AMD!
Il problema "scemo" dell' FSR è che necessita di TAA a parte, DLSS fa tutto insieme.
Se disabiliti il TAA hai un'immagine ancora più nitida ma vedi gli artefatti da upscaling :fagiano:

Quindi la qualità finale dipende ANCHE da come viene implementato il T(X)AA, problema che non si pone col DLSS.

Billi16
17-07-2021, 09:45
Vero, sarebbe bello riuscire anche a sbarazzarsi del TAA. In alcuni giochi provoca parecchio blur in movimento

floop
17-07-2021, 10:24
6700xt e un i5 4690k a 1440p come andrà? :help:

Dattofree
17-07-2021, 10:31
6700xt e un i5 4690k a 1440p come andrà? :help:

Il processore non sfrutta al massimo la scheda. Troppo differenza.

Esagerao
17-07-2021, 10:34
6700xt e un i5 4690k a 1440p come andrà? :help:

Concordo troppa differenza, anche a 4k farebbe meno ma sempre castratura.

incorreggiubile
17-07-2021, 11:31
Vero, sarebbe bello riuscire anche a sbarazzarsi del TAA. In alcuni giochi provoca parecchio blur in movimento
Il motion blur, cinematograficità a parte mutuata da Matrix/Max Payne :D in poi, del resto puoi proprio vederlo come il più semplice filtro per l'aliasing temporale.

29Leonardo
17-07-2021, 11:43
6700xt e un i5 4690k a 1440p come andrà? :help:

na chiavica

Billi16
17-07-2021, 11:51
6700xt e un i5 4690k a 1440p come andrà? :help:

Male, io quanto avevo l'i7 3770 ero cpu limited anche con la rx 480 in alcuni giochi

Esagerao
17-07-2021, 14:28
Giornata autunnale...

https://ibb.co/7kSbPdQ

finalmente un curve optimizer serio mi sono inventato

https://ibb.co/0QBTLdy

Raven
17-07-2021, 14:36
Male, io quanto avevo l'i7 3770 ero cpu limited anche con la rx 480 in alcuni giochi

pensa che su quel processore io ci metterò la 6800xt... :O

CKY
17-07-2021, 15:50
pensa che su quel processore io ci metterò la 6800xt... :O

= a mettere fx 8320 su una 6800. Bottleneck:rolleyes: is coming home

floop
17-07-2021, 16:48
pensa che su quel processore io ci metterò la 6800xt... :O

e non so se trasferire il r5 2600 etc su questo pc con la 6700xt per poi prendere qualcosa di più nuovo oppure prendere qualche buon usato tipo ryzen 1600 e farla finita tanto sarebbe il pc a casa dei miei mica la macchina principale.

incorreggiubile
17-07-2021, 16:59
Dalla 6700 in su direi solo penultima generazione o ultima, per i processori.
Non fosse altro che per SAM e tutti i problemi con Spectre/Meltdown & relativa fratellanza.

incorreggiubile
17-07-2021, 17:13
Nuova versione per gravity ora compresivo di leaderboards.
Chi volesse farci un thread......

https://gravitymark.tellusim.com/leaderboard/

6 Convexrook 42,345 253.5 Windows Direct3D12 NVIDIA GeForce RTX 3090
7 lowrider_05 42,307 253.3 Windows Direct3D12 AMD Radeon RX 6900 XT

giavial
17-07-2021, 18:03
Dalla 6700 in su direi solo penultima generazione o ultima, per i processori.
Non fosse altro che per SAM e tutti i problemi con Spectre/Meltdown & relativa fratellanza.

io ho la 6900xt e un 3930k a 4700 mhz di 10 anni fa e va benone. Arrivo al limite del mio monitor 100 hz a 3440x1440. Viaggio dagli 80 ai 100 fps sui giochi pesantini tutto in ultra. Solo su cyberpunk calo un po' le brache, ma con rt e la sola illuminazione vado sui 30 FPS. Se tolgo RT viaggio a una media di 50 fps. Pertanto non va per niente male.

DJurassic
17-07-2021, 18:12
Riporto anche qui visto che è attinente.

Test comparativi su Marvel Avengers. Risoluzione usata 5160x2160 . Cliccate per ingrandire in full res.

** La versione utilizzata del DLSS tramite dll è la 2.2.10 al posto di quella nativa del gioco **

Nativa + TAA

https://live.staticflickr.com/65535/51317546448_3e9615a13a_h.jpg (https://live.staticflickr.com/65535/51317546448_ff5863956f_o.png)

DLSS Quality

https://live.staticflickr.com/65535/51316605347_1e00c72add_h.jpg (https://live.staticflickr.com/65535/51316605347_e389b25b06_o.png)


FSR Ultra Quality + TAA


https://live.staticflickr.com/65535/51317546863_79afe840ef_h.jpg (https://live.staticflickr.com/65535/51317546863_e1603fbbd3_o.png)




Sinceramente pensavo peggio il FSR. :fagiano: Stasera sul tardi posterò altri ss comparativi.

incorreggiubile
17-07-2021, 19:24
io ho la 6900xt e un 3930k a 4700 mhz di 10 anni fa e va benone. Arrivo al limite del mio monitor 100 hz a 3440x1440. Viaggio dagli 80 ai 100 fps sui giochi pesantini tutto in ultra. Solo su cyberpunk calo un po' le brache, ma con rt e la sola illuminazione vado sui 30 FPS. Se tolgo RT viaggio a una media di 50 fps. Pertanto non va per niente male.
Considera che manco potrai installarci Win11 proprio per i limiti di tradeoff performance-sicurezza cui vanno incontro i processori pre-CoffeeLake (e che non puoi avere accesso a SAM/Rebar) :fagiano:

incorreggiubile
17-07-2021, 19:32
Sinceramente pensavo peggio il FSR. :fagiano: Stasera sul tardi posterò altri ss comparativi.
Domanda: il coso (esoscheletro? robot?) con la testa bianca nella teca DA VICINO ha le righe bianche sulle braccia che si vedono SOLO nello screen col DLSS?

Perchè se sì è la prova che appunto il DLSS si allena su immagini a megarisoluzione e ricostruisce pertanto dettagli che scompaiono pure a risoluzione nativa quando si è ad una certa distanza.
In questo senso si dice che il DLSS "migliora" addirittura l'immagine rispetto alla risoluzione nativa (grazie al training).

Stesso discorso per le cuciture dei pantaloni presenti sulla tuta della tipa.

Billi16
17-07-2021, 20:17
Riporto anche qui visto che è attinente.

Sinceramente pensavo peggio il FSR. :fagiano: Stasera sul tardi posterò altri ss comparativi.

Bel confronto! Zoomando si vede che il DLSS è leggermente superiore (capelli della tipa e scritte varie). Ma a dimensione normale sono identiche, chissà in movimento...

Billi16
17-07-2021, 20:27
pensa che su quel processore io ci metterò la 6800xt... :O

:doh:

Billi16
17-07-2021, 21:18
Altro confronto: https://www.youtube.com/watch?v=AtU4Fd6FuZw

Esagerao
17-07-2021, 21:25
A me il pelo nell'uovo importa poco direi assolutamente comparabili tenendo in considerazione che fsr è al primo stadio in fase embrionale in confronto a dlss e in ogni caso a bordo delle 6800/6900 ci sono 16gb di ram...

Il futuro ci premierà tenendo anche conto del successo di amd nelle cpu tanto grano per sviluppare e per partenrship con le case dei giochi senza tralasciare i chip amd nelle console a venire.

Fra un anno ce lo raccontiamo com è andata...

Raven
17-07-2021, 21:48
= a mettere fx 8320 su una 6800. Bottleneck:rolleyes: is coming home

:doh:

Ho il gusto dell'orrido, sono un feticista del bottleneck!... :O

Billi16
17-07-2021, 21:53
Test con F1 2021: https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/f1-2021-test-gpu-cpu

ray tracing disattivo

https://i.ibb.co/kH9sYJY/f1.jpg


ray tracing attivo

https://i.ibb.co/tZqXxvs/f2.jpg

incorreggiubile
17-07-2021, 22:00
sono un feticista del bottleneck!... :O
Beh dai, solo il collo è facile :sofico: :sofico: :sofico:

DJurassic
17-07-2021, 23:11
Domanda: il coso (esoscheletro? robot?) con la testa bianca nella teca DA VICINO ha le righe bianche sulle braccia che si vedono SOLO nello screen col DLSS?

Perchè se sì è la prova che appunto il DLSS si allena su immagini a megarisoluzione e ricostruisce pertanto dettagli che scompaiono pure a risoluzione nativa quando si è ad una certa distanza.
In questo senso si dice che il DLSS "migliora" addirittura l'immagine rispetto alla risoluzione nativa (grazie al training).

Stesso discorso per le cuciture dei pantaloni presenti sulla tuta della tipa.

Si è esatto. Il robot ha quelle striature sulle braccia di colore bianco.

Bel confronto! Zoomando si vede che il DLSS è leggermente superiore (capelli della tipa e scritte varie). Ma a dimensione normale sono identiche, chissà in movimento...

Grazie. Le differenze in movimento continuano ad esserci ma per ovvi motivi sono meno visibili. Poi molto dipende dalla grandezza dello schermo e dalla distanza di visione, 2 fattori che incidono molto sulla percezione di alcuni dettagli.

incorreggiubile
17-07-2021, 23:22
Si è esatto. Il robot ha quelle striature sulle braccia di colore bianco.

Perfetto, grazie!

Quindi il segreto del "dettaglio" del DLSS sta essenzialmente nel bypassare il meccanismo di mipmapping.
FSR se volete saperlo lo pesa logaritmicamente (come si può vedere nella demo che ho compilato e uppato) ma non può fare meglio della risoluzione nativa, laddove il DLSS sì proprio per come ne funziona la fase di training.

Billi16
17-07-2021, 23:24
Perfetto, grazie!

Quindi il segreto del "dettaglio" del DLSS sta essenzialmente nel bypassare il meccanismo di mipmapping.

Che figata:eek:

devAngnew
17-07-2021, 23:44
Bel confronto! Zoomando si vede che il DLSS è leggermente superiore (capelli della tipa e scritte varie). Ma a dimensione normale sono identiche, chissà in movimento...

Mha... io vedo meglio la scritta AIM sullo screenshot con FSR ... :fagiano:

incorreggiubile
17-07-2021, 23:54
Che figata:eek:
La figata sta nel fatto che FSR "ignorante" è più fedele all'immagine che approssima.....solo che l'immagine che approssima - cioè quella del gioco a risoluzione nativa - a sua volta è un'immagine ottenuta applicando il mipmapping e che quindi è intrinsecamente "sbagliata" per necessità di rasterizzazione :D

Il risultato di tutta questa catena è che il DLSS dà una resa migliore non come fedeltà al frame ma al ciò che il frame contiene. Infatti come facevo notare prima si vedono bene le righe bianche che manco ci sono nell'immagine a risoluzione nativa a causa del mipmapping.

Billi16
17-07-2021, 23:56
Mha... io vedo meglio la scritta AIM sullo screenshot con FSR ... :fagiano:

Hai ragione! AIM è più nitida con FSR. Io mi ero soffermato sulle scritte piccole "oxygen" nei contenitori sulla destra

Billi16
17-07-2021, 23:59
La figata sta nel fatto che FSR "ignorante" è più fedele all'immagine che approssima.....solo che l'immagine che approssima - cioè quella del gioco a risoluzione nativa - a sua volta è un'immagine ottenuta applicando il mipmapping e che quindi è intrinsecamente "sbagliata" per necessità di rasterizzazione :D

Il risultato di tutta questa catena è che il DLSS dà una resa migliore non come fedeltà al frame ma al ciò che il frame contiene. Infatti come facevo notare prima si vedono bene le righe bianche che manco ci sono nell'immagine a risoluzione nativa a causa del mipmapping.

:ave:

nebuk
18-07-2021, 09:44
Test con F1 2021: https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/f1-2021-test-gpu-cpu

ray tracing disattivo

https://i.ibb.co/kH9sYJY/f1.jpg


ray tracing attivo

https://i.ibb.co/tZqXxvs/f2.jpg


Sbaglio o manca la 6800XT in questo test?

Raven
18-07-2021, 10:43
Sbaglio o manca la 6800XT in questo test?

Non sbagli... prendi la 6900xt e togli un 4-5%... fine! :O

Billi16
18-07-2021, 10:44
Sbaglio o manca la 6800XT in questo test?

Si, ma va solo leggermente meno della 6900 quindi è facile farsi un'idea

MontegoBay
18-07-2021, 11:35
devo di la verità , con gli ultimi driver ho notato un aumento di prestazioni rispetto a prima

ora con i driver agg.

https://ibb.co/47qmLGs

Con i driver precedenti

https://ibb.co/JdZ3RxX

non e moltissimo , xo fa piacere che i driver stiano maturando.

p.s. ho tutto a default, 0 oc sulla scheda

Esagerao
18-07-2021, 12:03
Si, ma va solo leggermente meno della 6900 quindi è facile farsi un'idea

Approssimativamente vero fino a 2k

Per risoluzioni 4k la 6900 merita l'esborso superiore assolutamente giustificato a mio modo di vedere


per rimanere in tema di f1

https://www.kitguru.net/components/graphic-cards/dominic-moass/nvidia-rtx-3080-ti-review-ft-gigabyte-inno3d-palit/13/




Mi state facendo montare la scimmia con gli ultimi drivers... entro buio li provo

CKY
18-07-2021, 14:57
Ma con Intel è possibile abilitare SAM?

Billi16
18-07-2021, 17:41
Ma con Intel è possibile abilitare SAM?

Si, io lo uso e funziona (qualche fps in più). Nel mio caso ho solo dovuto aggiornare il bios ed è comparsa la voce "resizable bar". Anche se ho notato che a volte (soprattutto cappando gli fps) introduce leggero stuttering... penso debba ancora maturare.

Altro test con F1 2021 con gli ultimi driver se andate col mouse sopra ogni scheda vi da' le percentuali: https://www.computerbase.de/2021-07/f1-2021-benchmark-test/3/#diagramm-f1-2021-2560-1440-raytracing
Con ray tracing 6700xt pari alla 3060ti

devAngnew
18-07-2021, 17:56
Hai ragione! AIM è più nitida con FSR. Io mi ero soffermato sulle scritte piccole "oxygen" nei contenitori sulla destra

Non solo, io noto che i contenitori "oxygen" hanno un'ombreggiatura (non la scritta) peggiore in DLSS (blur) che FSR, altro difetto, sullo screen DLSS c'è aliasing sulla parete più marcato dietro (sinistra) e sopra i contenitori di ossigeno rispetto immagine nativa.

Billi16
18-07-2021, 18:13
Vero anche questo, siamo proprio al pelo nell'uovo:D
Quello che conta è che giocando normalmente siano entrambi paragonabili all'immagine nativa ma con un notevole boost prestazionale.

Billi16
18-07-2021, 18:20
Approssimativamente vero fino a 2k

Per risoluzioni 4k la 6900 merita l'esborso superiore assolutamente giustificato a mio modo di vedere



Non saprei... anche a 4k vedo sempre differenze massimo nell'ordine del 10% fra 6800xt e 6900xt. Un paio di esempi che ho visto con medie di diversi giochi:

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-avg-fps-3840-2160

https://tpucdn.com/review/amd-radeon-rx-6900-xt/images/relative-performance_3840-2160.png

carloUba
18-07-2021, 20:20
Approssimativamente vero fino a 2k

Per risoluzioni 4k la 6900 merita l'esborso superiore assolutamente giustificato a mio modo di vedere



Dipende anche dai giochi, in FS con monitor ultra wide c'è tra il 15% e il 20%.
Sono andato diretto sulla 6900 per questo. Sopra certe cifre non ha senso risparmiare.

Billi16
18-07-2021, 20:38
La 6900XT ha solo 8 CU in più rispetto alla 6800XT (80 contro 72) quindi siamo ad un 11-12% teorico di potenza in più. Le frequenze sono le stesse, il bus pure, l'infinity cache idem, quindi non può esserci più differenza. Tant'è che in media si arriva ad un 9-10%
A meno che ad altissime risoluzioni si possa formare un qualche collo di bottiglia su 6800XT...Ma nei vari test non ho visto differenze oltre il 10% (ricordo a pari clock)

Raven
18-07-2021, 20:58
La 6900XT ha solo 8 CU in più rispetto alla 6800XT (80 contro 72) quindi siamo ad un 11-12% teorico di potenza in più. Le frequenze sono le stesse, il bus pure, l'infinity cache idem, quindi non può esserci più differenza. Tant'è che in media si arriva ad un 9-10%
A meno che ad altissime risoluzioni si possa formare un qualche collo di bottiglia su 6800XT...Ma nei vari test non ho visto differenze oltre il 10% (ricordo a pari clock)

https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-ti-founders-edition/28.html

siamo sul 4-6% :O

Billi16
18-07-2021, 21:14
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-ti-founders-edition/28.html

siamo sul 4-6% :O

Si, infatti ho cercato di essere generoso... qua si arriva al 9%

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-avg-fps-3840-2160

alexgti
19-07-2021, 08:34
la 6900xt per quanto mi riguarda non l'ho ancora capita del tutto... 300€ per avere un soffio di fps in più mi pare un pò esagerato, discorso diverso tra la 6800 liscia e la 6800xt dove per 70€ prendo sicuro la XT.
Purtroppo sono tutti discorsi filosofici perchè tanto non si trova nulla per cui visto il mercato attuale anche una 6900xt a prezzo MSRP è sicuramente un ottimo affare!

Bello il confrontro DLSS e FSR, ho imparato un sacco di cosette!
Una cosa è certa però, il DLSS riesci a fare i capelli meglio dell'immagine nativa...
https://cdn.wccftech.com/wp-content/uploads/2021/07/NVIDIA-DLSS-vs-AMD-FSR-2-1480x623.jpg

Esagerao
19-07-2021, 08:48
Tutte conclusioni valide che apprezzo e condivido, rimane il fatto che partendo dalle 6800xt/3080, entrambe pagano il famoso 10% rispetto a 6900xt/3080ti le sorelle maggiori (come logico step di prezzo più alto tralasciando la 3090).
Quindi a parte il caro prezzo e differenza , che ognuno può ritenere giustificato o meno, anche in casa nvidia lo step in upgrade di prestazioni è del 10%, quindi comparabile con amd.

Naturalmente c'è chi lo ritiene ingiustificato o chi come me unitamente all'overclock vuole e pretende prestazioni assolute senza compromessi.

Inoltre poi entrano in campo le variabili tecniche come abbinamento cpu, monitor assolutamente rilevanti ai fini della scelta.

In nessun sito hardware raccomandano nè la 6900/3080ti rispetto a 6800/3080 (reperibilità permettendo).

Gyammy85
19-07-2021, 08:54
Tutte conclusioni valide che apprezzo e condivido, rimane il fatto che partendo dalle 6800xt/3080, entrambe pagano il famoso 10% rispetto a 6900xt/3080ti le sorelle maggiori (come logico step di prezzo più alto tralasciando la 3090).
Quindi a parte il caro prezzo e differenza , che ognuno può ritenere giustificato o meno, anche in casa nvidia lo step in upgrade di prestazioni è del 10%, quindi comparabile con amd.

Naturalmente c'è chi lo ritiene ingiustificato o chi come me unitamente all'overclock vuole e pretende prestazioni assolute senza compromessi.

Inoltre poi entrano in campo le variabili tecniche come abbinamento cpu, monitor assolutamente rilevanti ai fini della scelta.

In nessun sito hardware raccomandano nè la 6900/3080ti rispetto a 6800/3080 (reperibilità permettendo).

Occorre precisare che una 6900xt dal sito amd costa quanto una 3070 :asd:

incorreggiubile
19-07-2021, 09:03
Bello il confrontro DLSS e FSR, ho imparato un sacco di cosette!
Una cosa è certa però, il DLSS riesci a fare i capelli meglio dell'immagine nativa...
https://cdn.wccftech.com/wp-content/uploads/2021/07/NVIDIA-DLSS-vs-AMD-FSR-2-1480x623.jpg
Il motivo l'ho detto prima ;)

FSR cmq si è mangiato tutte le tecniche "classiche" di upscaling in un colpo solo.

Gyammy85
19-07-2021, 09:08
Il motivo l'ho detto prima ;)

FSR cmq si è mangiato tutte le tecniche "classiche" di upscaling in un colpo solo.

Mi piacerebbe sapere come fa il dlss a inventarsi cose che non ci sono neanche a nativa, o è semplicemente un trucchetto dei "divelopers" che attivano texture migliori appena spunti il dlss...immagine ritagliata in modo tale da non far vedere cosa succede al resto della scena...sono i soliti ottimi confronti certificati

Esagerao
19-07-2021, 09:10
Occorre precisare che una 6900xt dal sito amd costa quanto una 3070 :asd:


Guarda non mi parlare di soldi che ho donato un rene per la ultimate nonostante il ricavato della 2080ti.
Lavorando non sarei mai riuscito a prendermi una radeon 6900 il giovedì sul sito amd a (prezzo di fabbrica) non avendo tempo...

Se consideriamo inizio luglio, tagliando fuori amz per assenza schede, e considerando il resto del mondo dei negozi web con prezzi pazzi e tutte schede fittizie, finite , da riassortire o solo presso fornitori con tutte le variabili del caso,
ho deciso di prendere questa con il motto pago e spedisci subito in quanto fisicamente disponibile che del resto rimane la mia filosofia e-shopping...

So di essere stato fin troppo eroico (pirla), ma poi nell'ergonomia di spese annuali ho dovuto considerare ferie settembre, e a ottobre tagliando e gomme nuove...

Esagerao
19-07-2021, 09:16
Mi piacerebbe sapere come fa il dlss a inventarsi cose che non ci sono neanche a nativa, o è semplicemente un trucchetto dei "divelopers" che attivano texture migliori appena spunti il dlss...immagine ritagliata in modo tale da non far vedere cosa succede al resto della scena...sono i soliti ottimi confronti certificati

Concordo totalmente, creare un qualcosa che non c'è quasi un bleff astuto e geniale.

manu89ft
19-07-2021, 09:33
Giocando a Resident evil Village in 4k tutto maxato ho visto che usa quasi 13Gb di ram della scheda dicono le impostazioni! Paura :D

Comunque funziona davvero bene anche questo titolo!

ray_hunter
19-07-2021, 09:39
Mi piacerebbe sapere come fa il dlss a inventarsi cose che non ci sono neanche a nativa, o è semplicemente un trucchetto dei "divelopers" che attivano texture migliori appena spunti il dlss...immagine ritagliata in modo tale da non far vedere cosa succede al resto della scena...sono i soliti ottimi confronti certificati

Il DLSS non si inventa niente, semplicemente viene allenta con immagini a risoluzioni molto alte dove vi sono più dettagli che in 4K.

Detto questo però vi posso dire che a mio avviso, dopo aver provato il gioco sulla mia scheda e su 2070 super, FSR fa meglio in alcune texture.
Quello che però avvantaggia DLSS è l'antialiasing temporale che rende l'immagine più stabile.
In linea di massima, in 4K, DLSS quality vs FSR Ultra sono davvero molto vicini i risultati, e io noto differenze solo zoomando le immagini e solo in alcune cose come fili sottili e capelli.
Se passiamo al 1440P sempre con DLSS quality e FSR ultra il DLSS produce un'immagine più stabile.

Io credo che se AMD vorrà investire per un'analisi non solo spaziale ma anche temporale con FSR 2.0 sarà possibile avere davvero risultati strepitosi

ninja750
19-07-2021, 09:44
Bello il confrontro DLSS e FSR, ho imparato un sacco di cosette!
Una cosa è certa però, il DLSS riesci a fare i capelli meglio dell'immagine nativa...


beh non c'è dubbio io mi farei solo la tipa DLSS

che cessa la FSR





oh sono in ufficio col 24" FHD e fatico a trovare differenze pure appoggiando il naso allo schermo: l'unico punto in cui il DLSS è notevolmente meglio fissando per un po l'immagine è la ciocca di capelli sulla sx sopra al colletto verde

indicatemene altre per favore

alexgti
19-07-2021, 09:45
Tutte conclusioni valide che apprezzo e condivido, rimane il fatto che partendo dalle 6800xt/3080, entrambe pagano il famoso 10% rispetto a 6900xt/3080ti le sorelle maggiori (come logico step di prezzo più alto tralasciando la 3090).
Quindi a parte il caro prezzo e differenza , che ognuno può ritenere giustificato o meno, anche in casa nvidia lo step in upgrade di prestazioni è del 10%, quindi comparabile con amd.

Naturalmente c'è chi lo ritiene ingiustificato o chi come me unitamente all'overclock vuole e pretende prestazioni assolute senza compromessi.

Inoltre poi entrano in campo le variabili tecniche come abbinamento cpu, monitor assolutamente rilevanti ai fini della scelta.

In nessun sito hardware raccomandano nè la 6900/3080ti rispetto a 6800/3080 (reperibilità permettendo).
si infatti ho sempre detto che con il mercato attuale ormai sono concetti filosofici :D
Di sicuro le 6900xt sono tutte binnate e con potenziali di overclock più alti rispetto alla 6800xt che in fin dei conti è quasi sempre una 6900 difettosa. Poi oh ci stanno pure le 6800xt che vanno a 2700mhz ma si contano sulle dita di una mano.

alexgti
19-07-2021, 09:47
beh non c'è dubbio io mi farei solo la tipa DLSS

che cessa la FSR





oh sono in ufficio col 24" FHD e fatico a trovare differenze pure appoggiando il naso allo schermo: l'unico punto in cui il DLSS è notevolmente meglio fissando per un po l'immagine è la ciocca di capelli sulla sx sopra al colletto verde

indicatemene altre per favore
devi guardare le punte dei capelli, il DLSS fa scuola in questo caso!

Gyammy85
19-07-2021, 09:49
Il DLSS non si inventa niente, semplicemente viene allenta con immagini a risoluzioni molto alte dove vi sono più dettagli che in 4K.

Detto questo però vi posso dire che a mio avviso, dopo aver provato il gioco sulla mia scheda e su 2070 super, FSR fa meglio in alcune texture.
Quello che però avvantaggia DLSS è l'antialiasing temporale che rende l'immagine più stabile.
In linea di massima, in 4K, DLSS quality vs FSR Ultra sono davvero molto vicini i risultati, e io noto differenze solo zoomando le immagini e solo in alcune cose come fili sottili e capelli.
Se passiamo al 1440P sempre con DLSS quality e FSR ultra il DLSS produce un'immagine più stabile.

Io credo che se AMD vorrà investire per un'analisi non solo spaziale ma anche temporale con FSR 2.0 sarà possibile avere davvero risultati strepitosi

Solo su quei capelli però ma guarda il caso, e spammato ovunque col ritaglio viola, casomai non si notasse...mi spiace ma non ci credo...tipo rdr2 dove alcune scritte sulle insegne non si leggono bene, lì la megares non l'hanno usata?

Esagerao
19-07-2021, 09:50
Qualcuno ha avuto problemi con i flight sim 2020? O conosce potenziali soluzioni?

Tutti i test e giochi senza problemi eccetto questo simulatore che random entro poco dall'avvio va in crash to desktop.
Con la 2080ti mai avuto problemi.
Ps anche con gli ultimi drivers 21.7.1

ray_hunter
19-07-2021, 09:54
Solo su quei capelli però ma guarda il caso, e spammato ovunque col ritaglio viola, casomai non si notasse...mi spiace ma non ci credo...tipo rdr2 dove alcune scritte sulle insegne non si leggono bene, lì la megares non l'hanno usata?

Su tutti i capelli di ogni personaggio, non solo su quelli. Anche sui fili sottili, es. ponte in lontananza.

Cmq a mio parere la godibilità del titolo è del tutto identica. Giocando, ma anche soffermandosi a guardare le immagini davvero difficile ravvisare differenze tra i due.

ninja750
19-07-2021, 10:01
devi guardare le punte dei capelli, il DLSS fa scuola in questo caso!

ok ma sempre seriamente: com'è possibile che sembra più capelluta in nativa e più pelata con DLSS sulla fronte?

ma in effetti in quel punto FSR si è comportato male

incorreggiubile
19-07-2021, 10:06
Mi piacerebbe sapere come fa il dlss a inventarsi cose che non ci sono neanche a nativa, o è semplicemente un trucchetto dei "divelopers" che attivano texture migliori appena spunti il dlss...immagine ritagliata in modo tale da non far vedere cosa succede al resto della scena...sono i soliti ottimi confronti certificati
Fare un corso sulle reti neurali e su come funziona l'accoppiata training/inferenza? :D
Attenzione a capire bene la backpropagation ( https://it.wikipedia.org/wiki/Retropropagazione_dell%27errore ) , altrimenti non si capisce dove starebbe la componente di apprendimento.

DLSS si allena a risoluzioni molto più alte di 4K e l'inferenza permette di capire dove/come poi agire sul dettaglio.

Ma la cosa veramente bella è che quanto la rete impara "essere adeguato" in ambito visivo poi può essere usato pure altrove (questa è la parte dove l'apprendimento dà infine elasticità)

ninja750
19-07-2021, 10:08
i prezzi della VGA tornano a risalire

https://cdn.videocardz.com/1/2021/07/AMD-Radeon-NVIDIA-GeForce-July-2021-Pricing-768x395.png

https://videocardz.com/newz/nvidia-rtx-30-amd-rx-6000-price-decline-enters-a-slowdown

Gyammy85
19-07-2021, 10:10
Fare un corso sulle reti neurali e su come funziona l'accoppiata training/inferenza? :D

Mannaggia non ci avevo pensato, dipende tutto da inference training con stimatori BLUE, e difatti la tipa ha gli occhi blu, lampante...come physics su metro 2033, che necessitava della potenza di cuda cores per girare a più di 5 fps e poi si è scoperto che invece girava uguale via software

incorreggiubile
19-07-2021, 10:14
Concordo totalmente, creare un qualcosa che non c'è quasi un bleff astuto e geniale.
BLEFF? :D Tipo inventarsi la lingua? :sofico:

incorreggiubile
19-07-2021, 10:16
Mannaggia non ci avevo pensato, dipende tutto da inference training con stimatori BLUE, e difatti la tipa ha gli occhi blu, lampante...come physics su metro 2033, che necessitava della potenza di cuda cores per girare a più di 5 fps e poi si è scoperto che invece girava uguale via software
Questo perchè in realtà si era già nella fase in cui PhysX era ottimizzato per CPU SSE/AVX ma se non veniva trovata nel sistema una GPU NVidia veniva usato il path x87. Il che non significa minimamente che in certi casi la GPU dedicata alla fisica non serva, semplicemente si è sempre preferito evitare di renderla veramente importante nell'equazione. Si può fare eh.....

Gyammy85
19-07-2021, 10:18
Questo perchè in realtà si era già nella fase in cui PhysX era ottimizzato per CPU SSE/AVX ma se non venita trovata una GPU NVidia veniva usato il path x87. Il che non significa minimamente che in certi casi la GPU dedicata alla fisica non serva, semplicemente si è sempre preferito evitare di renderla veramente importante nell'equazione. Si può fare eh.....

Resta il fatto che era la solita features esclusiva che non poteva in alcun modo girare diversamente, strano che tutto avvenga sempre con una cadenza regolare

incorreggiubile
19-07-2021, 10:19
Solo su quei capelli però ma guarda il caso, e spammato ovunque col ritaglio viola, casomai non si notasse...mi spiace ma non ci credo...tipo rdr2 dove alcune scritte sulle insegne non si leggono bene, lì la megares non l'hanno usata?
Semplicemente l'algoritmo avrà deciso che non ne vale la pena.

incorreggiubile
19-07-2021, 10:19
Resta il fatto che era la solita features esclusiva che non poteva in alcun modo girare diversamente, strano che tutto avvenga sempre con una cadenza regolare
GOMBLODDONE DI $0R0$ dai.

alexgti
19-07-2021, 10:21
ok ma sempre seriamente: com'è possibile che sembra più capelluta in nativa e più pelata con DLSS sulla fronte?

ma in effetti in quel punto FSR si è comportato male
lo hanno spiegato qualche messaggio fa, ha a che fare con il mipmapping che a quanto pare il DLSS salta a piè pari mentre è presente nell'immagine nativa e quindi anche nell'FSR.
Però siccome per me questo campo è una nebulosa di andromeda, lascio la parola a chi ne sa di più

Gyammy85
19-07-2021, 10:23
Semplicemente l'algoritmo avrà deciso che non ne vale la pena.

Non vale la pena renderizzare delle scritte, ok

GOMBLODDONE DI $0R0$ dai.

No, solo marketing

Gyammy85
19-07-2021, 10:25
lo hanno spiegato qualche messaggio fa, ha a che fare con il mipmapping che a quanto pare il DLSS salta a piè pari mentre è presente nell'immagine nativa e quindi anche nell'FSR.
Però siccome per me questo campo è una nebulosa di andromeda, lascio la parola a chi ne sa di più

In pratica il dlss è roba precalcolata, altrimenti non si spiega perché il gioco debba essere prima analizzato

incorreggiubile
19-07-2021, 10:27
lo hanno spiegato qualche messaggio fa, ha a che fare con il mipmapping che a quanto pare il DLSS salta a piè pari mentre è presente nell'immagine nativa e quindi anche nell'FSR.
Però siccome per me questo campo è una nebulosa di andromeda, lascio la parola a chi ne sa di più
Quello riguardava il robottone e le strisce sulle braccia.
DLSS "salta" nel senso che essendo tarato su immagini di risoluzione molto più alta "intuisce" cose che sono impossibili da vedere a risoluzione nativa a causa di meccanismi come il mip-mapping (ad esempio nell'uso di texture a bassa risoluzione per le parti della scena lontane dalla camera).

incorreggiubile
19-07-2021, 10:28
In pratica il dlss è roba precalcolata, altrimenti non si spiega perché il gioco debba essere prima analizzato
No. E' dinamico (e non può non esserlo per via della sua componente temporale tra i tanti motivi che non sto qui ad elencare), infatti non avrai mai 2 rese perfettamente identiche in due sessioni di gioco.

Il gioco deve essere analizzato perchè finisce a far parte del modellone (non ci sono più i modelli separati gioco per gioco col DLSS 2.0 ).

incorreggiubile
19-07-2021, 10:36
Non vale la pena renderizzare delle scritte, ok
MAGARI in futuro imparerà a farlo.



No, solo marketing
No, nel senso che il DLSS fa quello che dice di fare e il marketing riguarda piuttosto il fatto che venga presentato come implementazione domestica di tecnologie fantascientifiche.
Che è vero nella misura in cui le persone non fanno un corso di identificazione dei modelli e analisi dei dati / data science+machine learning (e in generale di intelligenza artificiale). Se li fai (o li hai fatti come il sottoscritto) non c'è proprio niente di fantascientifico.
E' da 20 anni che si volevano fare queste cose in computer vision, eh.

Gyammy85
19-07-2021, 10:37
No. E' dinamico (e non può non esserlo per via della sua componente temporale tra i tanti motivi che non sto qui ad elencare), infatti non avrai mai 2 rese perfettamente identiche in due sessioni di gioco.

Il gioco deve essere analizzato perchè finisce a far parte del modellone (non ci sono più i modelli separati gioco per gioco col DLSS 2.0 ).

Pure, sempre più incredibile
Quindi in un confronto basta ripetere la stessa scena e selezionare "lo scatto migliore", ottimo

devAngnew
19-07-2021, 10:41
beh non c'è dubbio io mi farei solo la tipa DLSS

che cessa la FSR





oh sono in ufficio col 24" FHD e fatico a trovare differenze pure appoggiando il naso allo schermo: l'unico punto in cui il DLSS è notevolmente meglio fissando per un po l'immagine è la ciocca di capelli sulla sx sopra al colletto verde

indicatemene altre per favore

Sei sicuro ? La tipa DLSS soffre di alopecia è capace che tra una settimana te la ritrovi mezza calva :rotfl:

Gyammy85
19-07-2021, 10:43
MAGARI in futuro imparerà a farlo.



No, nel senso che il DLSS fa quello che dice di fare e il marketing riguarda piuttosto il fatto che venga presentato come implementazione domestica di tecnologie fantascientifiche.
Che è vero nella misura in cui le persone non fanno un corso di identificazione dei modelli e analisi dei dati / data science+machine learning (e in generale di intelligenza artificiale). Se li fai (o li hai fatti come il sottoscritto) non c'è proprio niente di fantascientifico.
E' da 20 anni che si volevano fare queste cose in computer vision, eh.

Da vent'anni la gente voleva che un algoritmo decidesse cosa visualizzare nel suo gioco? al massimo voleva il ray tracing, che sta iniziando ora, ma essenzialmente voleva programmare effetti complessi in poche righe, e difatti siamo arrivati alle dx12

La tua capacità di annichilire qualsiasi discorso tecnico è stupefacente :D

Quindi io gioco a qualcosa, poi rientro e noto meno dettaglio, quindi mi dò una pacca sulla spalla perché c'è la probabilità che la partita dopo sarà più meglio di prima...lui dice questo, ammesso che io abbia capito bene

ray_hunter
19-07-2021, 10:56
Da vent'anni la gente voleva che un algoritmo decidesse cosa visualizzare nel suo gioco? al massimo voleva il ray tracing, che sta iniziando ora, ma essenzialmente voleva programmare effetti complessi in poche righe, e difatti siamo arrivati alle dx12



Quindi io gioco a qualcosa, poi rientro e noto meno dettaglio, quindi mi dò una pacca sulla spalla perché c'è la probabilità che la partita dopo sarà più meglio di prima...lui dice questo, ammesso che io abbia capito bene

Dirti che non hai capito na fava, credimi, è una gentilezza!

Gyammy85
19-07-2021, 11:11
Dirti che non hai capito na fava, credimi, è una gentilezza!

"Non avrai mai due rese perfettamente identiche in due sessioni di gioco"

devAngnew
19-07-2021, 11:15
Perfetto, grazie!

Quindi il segreto del "dettaglio" del DLSS sta essenzialmente nel bypassare il meccanismo di mipmapping.
FSR se volete saperlo lo pesa logaritmicamente (come si può vedere nella demo che ho compilato e uppato) ma non può fare meglio della risoluzione nativa, laddove il DLSS sì proprio per come ne funziona la fase di training.

Scusa se entro nel tuo discorso a gamba tesa, :D ma la tua teoria non mi sembra deltutto vera, in quando, nel caso dell'immagine della ragazza (a proposito che gioco è ?) che è in primo piano in tutte e e tre le immagini viene presa in cosiderazione la stessa mipmap cioè quella a risoluzione migliore. Ora credo che, per vedere quale sia quella con rendering migliore bisognerebbe renderizzare la stessa scena in nativo in 16K (se DLSS si allena a 16K ) e fare un confronto e trovare gli eventuali errori.

incorreggiubile
19-07-2021, 11:20
"Non avrai mai due rese perfettamente identiche in due sessioni di gioco"
E quindi quale è il problema? E' così anche per tantissime altri parti del gioco, a partire dall'illuminazione (shading, shadowing, ecc. ecc. ecc.) che ha pure lei una componente stocastica E temporale.

E no, non preoccuparti che una mano non diventa allora un piede :fagiano:

devAngnew
19-07-2021, 11:22
Dirti che non hai capito na fava, credimi, è una gentilezza!

Scusate anziché scendere a questi livelli, dovete contestualizzare e cercare di esprimere al meglio il vostro punto di vista, e non scendere di livello fino al complotto solo perchè non avete modo o non volete continuare il discorso. :)

incorreggiubile
19-07-2021, 11:24
Scusa se entro nel tuo discorso a gamba tesa, :D ma la tua teoria non mi sembra deltutto vera, in quando, nel caso dell'immagine della ragazza (a proposito che gioco è ?) che è in primo piano in tutte e e tre le immagini viene presa in cosiderazione la stessa mipmap cioè quella a risoluzione migliore. Ora credo che, per vedere quale sia quella con rendering migliore bisognerebbe renderizzare la stessa scena in nativo in 16K (se DLSS si allena a 16K ) e fare un confronto e trovare gli eventuali errori.
Lo bypassa per quella determinata risoluzione perchè è allenato su set a risoluzioni più alte.
Continua a sfuggirvi che il DLSS (2.0) non è un "filtro", è un ricostruttore (temporale) che "intuisce" cosa sottolineare/evidenziare inferendo dalla situazione che si trova sulla base di una "knowledge base" ottenuta col training su set di dati caratterizzati innanzitutto da una risoluzione molto più alta!

incorreggiubile
19-07-2021, 11:25
Scusate anziché scendere a questi livelli, dovete contestualizzare e cercare di esprimere al meglio il vostro punto di vista, e non scendere di livello fino al complotto solo perchè non avete modo o non volete continuare il discorso. :)
WUT? Cioè tu accusi "noi" di buttarla sul complotto perchè sono gli altri che parlano apertano di strategia truffaldina di marketing? :asd:
Guardate che la documentazione del DLSS è disponibile per tutti, eh (non certo i dettagli strategici della sua implementazione, ma il funzionamento sì).

incorreggiubile
19-07-2021, 11:30
bisognerebbe renderizzare la stessa scena in nativo in 16K (se DLSS si allena a 16K ) e fare un confronto e trovare gli eventuali errori.
Questo potevi farlo con DLSS 1.0, il 2.0 non ha training specifico gioco per gioco! E' per quello che "è" intelligente ora.
Tradotto non puoi sapere cosa ha spinto l'algoritmo a sottolinearti un certo dettaglio.

"Ah ecco, fa le cose a caso!!!11111 Sempre meglio!!1111"

Gyammy85
19-07-2021, 11:36
E quindi quale è il problema? E' così anche per tantissime altri parti del gioco, a partire dall'illuminazione (shading, shadowing, ecc. ecc. ecc.) che ha pure lei una componente stocastica E temporale.

E no, non preoccuparti che una mano non diventa allora un piede :fagiano:

Nessuno ci mancherebbe, solo che è la prima volta che lo sento in tre anni, e resto abbastanza sbigottito...

Gyammy85
19-07-2021, 11:38
Questo potevi farlo con DLSS 1.0, il 2.0 non ha training specifico gioco per gioco! E' per quello che "è" intelligente ora.
Tradotto non puoi sapere cosa ha spinto l'algoritmo a sottolinearti un certo dettaglio.

"Ah ecco, fa le cose a caso!!!11111 Sempre meglio!!1111"

Non deve per forza essere il miglior approccio possibile, uno può anche esprimere delle perplessità, a me cambia zero, tanto fra un pò ci sarà in due giochi su cento, in attesa della next big thing delle rtx 4000

incorreggiubile
19-07-2021, 12:38
Ma infatti l'FSR è ampiamente sufficiente e se giochi a 4K sul 27 pollici (meglio il 24 ma praticamente non ne esistono) non noterai MAI differenze (la visione è un fenomeno percettivo e c'è una bella componente mentale, non siamo "telecamere"). E funziona su ogni GPU e per le integrate (AMD,Intel) è semplicemente favoloso.

La cosa interessante del machine learning non sono tanto i risultati "infallibili" quanto il fatto che il modello che generi per la computer vision puoi anche poi usarlo per altri ambiti completamente distinti da essa. E' lì che infatti si inizia a parlare di "intelligenza", quando hai finalmente modelli di uso universale.....cioè hai una capacità di associazione che in quanto tale va oltre la semplice inferenza logica.

Perchè far partire proprio tutto dalla computer vision? Perchè abbiamo TONNELLATE di roba video a costo zero da far processare (a partire dalle le vostre fotine su FB o Instagram :D )

"Ecco visto, avevo ragione io quando lo dicevo 3000 anni fa e non mi ascoltava nessuno, la diffusione da 15 anni a questa parte di sensori ottici a basso costo fa parte del gombloddone per farci comandare dalla dittatura illuminata - PUN INTENDED - dell'AI di quel perfido e subdolo Jen-Hsun che fa il simpaticone dalla sua cucina dove ci sta cuocendo tutti a fuoco lento come la famosa rana che non se ne accorgIe, svegliahhhhh!!111 O siete complici dei bastardi!!1111 LISA SALVACI, TUCHEPPUOI!!!! (cit. Gigrobbò )" :sofico:

leoneazzurro
19-07-2021, 14:28
Sulla questione del dettaglio: i paragoni con la risoluzione nativa sono un po' una fregatura, nel senso che la "nativa" in realtà esce con una marea di filtri tra cui il TAA, e moltissimo (troppo) dipende dall'implementazione della stessa. La quale è spesso uno schifo totale e dato che FSR prende l'immagine DOPO il TAA, risente di tutte le imperfezioni di quell'implementazione. Il DLSS aiuta con l'AI (anche se - vedere il video di HWUnboxed per vedere come in Necromunda DLSS "crei" dettaglio che non esiste nelle immagini originali) ma se ci fosse un TAA fatto come si deve, dato anche il fatto che il dettaglio geometrico interno è più alto con la nativa, non ci sarebbero interrogativi da porsi dal punto di vista della qualità (la Nativa vincerebbe sempre e comunque). Non a caso io attendo con trepidazione UE5, dove finalmente avremo un sistema di upscaling/AA decente integrato nel motore.

ray_hunter
19-07-2021, 15:24
Sulla questione del dettaglio: i paragoni con la risoluzione nativa sono un po' una fregatura, nel senso che la "nativa" in realtà esce con una marea di filtri tra cui il TAA, e moltissimo (troppo) dipende dall'implementazione della stessa. La quale è spesso uno schifo totale e dato che FSR prende l'immagine DOPO il TAA, risente di tutte le imperfezioni di quell'implementazione. Il DLSS aiuta con l'AI (anche se - vedere il video di HWUnboxed per vedere come in Necromunda DLSS "crei" dettaglio che non esiste nelle immagini originali) ma se ci fosse un TAA fatto come si deve, dato anche il fatto che il dettaglio geometrico interno è più alto con la nativa, non ci sarebbero interrogativi da porsi dal punto di vista della qualità (la Nativa vincerebbe sempre e comunque). Non a caso io attendo con trepidazione UE5, dove finalmente avremo un sistema di upscaling/AA decente integrato nel motore.

Ma proprio per questo prima dicevo che sarà essenziale per AMD nell'eventuale implementazione di un FSR 2.0, implementare in modo efficacie una componente temporale che dia modo di non dover dipendere dal TAA implementato. A volte il TAA è poco efficacie. Cmq per precisazione l'FSR lo puoi applicare anche senza TAA solo che così fa schifo.

leoneazzurro
19-07-2021, 15:35
E' che con la componente temporale ci fai poco se il TAA è applicato alla CDC, visto che FSR prende il frame DOPO il TAA.

Ale55andr0
19-07-2021, 16:32
beh non c'è dubbio io mi farei solo la tipa DLSS

che cessa la FSR





oh sono in ufficio col 24" FHD e fatico a trovare differenze pure appoggiando il naso allo schermo: l'unico punto in cui il DLSS è notevolmente meglio fissando per un po l'immagine è la ciocca di capelli sulla sx sopra al colletto verde

indicatemene altre per favore

vabè sei veramente orbo allora :D

https://i.ibb.co/9skfvvn/NVIDIA-DLSS-vs-AMD-FSR-2-1480x623.jpg

Billi16
19-07-2021, 17:07
Altra comparativa dlss fsr https://www.youtube.com/watch?v=zDJxBykV1C0

devAngnew
19-07-2021, 17:35
Lo bypassa per quella determinata risoluzione perchè è allenato su set a risoluzioni più alte.
Continua a sfuggirvi che il DLSS (2.0) non è un "filtro", è un ricostruttore (temporale) che "intuisce" cosa sottolineare/evidenziare inferendo dalla situazione che si trova sulla base di una "knowledge base" ottenuta col training su set di dati caratterizzati innanzitutto da una risoluzione molto più alta!

Forse non mi spiego in primo piano la mipmap è sempre la migliore (cioè viene bypassata sempre non solo dal DLSS anche da FSR etc.) .

WUT? Cioè tu accusi "noi" di buttarla sul complotto perchè sono gli altri che parlano apertano di strategia truffaldina di marketing? :asd:
Guardate che la documentazione del DLSS è disponibile per tutti, eh (non certo i dettagli strategici della sua implementazione, ma il funzionamento sì).

Mi era sembrato che avessi usato la parola complotto quando Gyammy ha parlato dei "problemi" passati di physics o no ? Cmq questo discorso mi interessa poco infatti io ho chiesto solo di rimanere in argomento. :)

Questo potevi farlo con DLSS 1.0, il 2.0 non ha training specifico gioco per gioco! E' per quello che "è" intelligente ora.
Tradotto non puoi sapere cosa ha spinto l'algoritmo a sottolinearti un certo dettaglio.

"Ah ecco, fa le cose a caso!!!11111 Sempre meglio!!1111"

Ovviamente l'algoritmo di upscale con backpropagation non lavora a caso ma evidentemente non potrà mai replicare l'immagine reale di training a 16K ci sarà sempre un errore di fondo. :) Ecco perchè ho parlato di confronto con una renderizzata a 16K .

Thhh
20-07-2021, 06:18
E' uscita fresca fresca una nuova patch per resident evil. SPero sia l'aggiornamento con l'FSR così finalmente posso fare qualche prova anche io e vedere come si comporta.
Si confermo per chi vuole testarlo,l'hanno introdotto sul titolo Capcom.

ninja750
20-07-2021, 08:40
vabè sei veramente orbo allora :D


l'ho notato dopo guardando bene :D

Ale55andr0
20-07-2021, 08:45
l'ho notato dopo guardando bene :D

addirittura hai dovuto guardare bene :sofico:

..vabò cmq anche io a volte non trovo quello che ho sotto al naso, specie nei cassetti :asd:
..cmq non ho ancora capito qual'è sto gioco con cecilia rodriguez :asd:

incorreggiubile
20-07-2021, 09:17
Sarà quello di Avengers.

leoneazzurro
20-07-2021, 09:37
Comunque non è che DLSS sia la panacea su tutto, per esempio

https://forum.beyond3d.com/posts/2216316/

In questo caso FSR fa un lavoro migliore, al momento la soluzione perfetta non esiste.

ninja750
20-07-2021, 10:27
addirittura hai dovuto guardare bene :sofico:


francamente io già devo guardare bene per notare differenze su un frame fermo figurati quando tutto è in movimento. sicuramente c'è chi ha occhi più allenati di altri per notare differenze, dalla mia distanza di visione queste due tecnologie sono identiche, ci sono video online dove le paragonano senza scriverti quale è delle due.. faticheresti anche tu. diverso se sai già dove guardare (capelli sotto) allora la differenza la vedo ma diamine.. io in quei pochi minuti che ho di tempo voglio giocare al gioco non alle 10 piccole differenze

nel mio caso uso questo mio "difetto" per giocare fhd alti fps senza notare grosse seghettature o simili :D


In questo caso FSR fa un lavoro migliore, al momento la soluzione perfetta non esiste.

si chiama nativa :eek:

DJurassic
20-07-2021, 11:03
si chiama nativa :eek:

Come no, la nativa con il TAA che spalma burro ovunque blurrando l'inverosimile. :mc:

Esagerao
20-07-2021, 13:00
Ragazzi si vola... la 3090 asfaltata (rt off)

https://www.guru3d.com/articles_pages/f1_2021_pc_graphics_performance_benchmark_review,6.html

In pratica, posso fare lunghe sessioni di simulazione week end e tenere tutto il pc in risparmio energetico per avere 120fps a 4k.

leoneazzurro
20-07-2021, 13:32
Ragazzi si vola... la 3090 asfaltata (rt off)

https://www.guru3d.com/articles_pages/f1_2021_pc_graphics_performance_benchmark_review,6.html

In pratica, posso fare lunghe sessioni di simulazione week end e tenere tutto il pc in risparmio energetico per avere 120fps a 4k.

Anche RT on comunque la serie 6000 si comporta benissimo, la 6800 liscia è sempre sopra le due 3070 e tutte e due le XT sono sopra la 3080.

Esagerao
20-07-2021, 13:38
Anche RT on comunque la serie 6000 si comporta benissimo, la 6800 liscia è sempre sopra le due 3070 e tutte e due le XT sono sopra la 3080.

Diciamocela tutta in una sessione di guida chi va a cercare il pelo nell'uovo nelle ombre e compagnia bella...meglio tanti frame senza scatti in v-sync o adaptive vrr, specie con la gpu che lavora comoda senza andare al 100%.

FroZen
20-07-2021, 13:39
Comunque non è che DLSS sia la panacea su tutto, per esempio

https://forum.beyond3d.com/posts/2216316/

In questo caso FSR fa un lavoro migliore, al momento la soluzione perfetta non esiste.

Ci sono enciclopedie intere sul tubo di difetti grafici introdotti dal dlss

Billi16
20-07-2021, 13:59
Ragazzi si vola... la 3090 asfaltata (rt off)

https://www.guru3d.com/articles_pages/f1_2021_pc_graphics_performance_benchmark_review,6.html

In pratica, posso fare lunghe sessioni di simulazione week end e tenere tutto il pc in risparmio energetico per avere 120fps a 4k.

Che sia uno dei primi esempi di ray tracing ben ottimizzato per amd?

Gyammy85
20-07-2021, 14:36
Che sia uno dei primi esempi di ray tracing ben ottimizzato per amd?

Il trend è quello, i vecchi giochi rt sono ottimizzati nvidia e fanno cose in hardware che amd fa su shader core, va anche fin troppo bene considerato tutto in quei giochi

mircocatta
20-07-2021, 14:37
Che sia uno dei primi esempi di ray tracing ben ottimizzato per amd?

ma a prescindere sembra anche l'implementazione quasi piu inutile di RT mai vista :asd: un po di ombre qua e la, riflessi, ma su un gioco del genere il salto viviso lo si avrebbe con l'illuminazione

poi arriverà l'utente di turno a dirmi che è RT anche l'illuminazione, a questo punto chapeau a EA (o codemaster?) per aver fatto comunque un ottimo motore in rasterizzazione

ray_hunter
20-07-2021, 15:38
Il trend è quello, i vecchi giochi rt sono ottimizzati nvidia e fanno cose in hardware che amd fa su shader core, va anche fin troppo bene considerato tutto in quei giochi

Più che altro direi che la peggior implementazione è in Cyberpunk...
Con RT se voglio giocare a 60fps devo mettere a 900P. Un vero schifo!!!
Facendo due conticini dovrei giocarlo in 2K con FSR su balanced per avere 60fps tutto su ultra compreso RT.
Almeno control in 1080P vola, tanto che ho calcolato che potrei goderlo alla grande a 2K con FSR su ultra o alla peggio qualità!
Ovviamente è tutto ipotetico :mc:

Rainy nights
20-07-2021, 20:58
Occorre precisare che una 6900xt dal sito amd costa quanto una 3070 :asd:
Appunto.


Cmq funziona, per ora l'ho messa nel vecchio visto che la tirano lunga per la spedizione degli altri pezzi. Mandarla a 93% con Baldur's Gate 3 non ha prezzo :D


PS: provo a lanciare anche Cyber Punk, ma con il mio attuale sistema non so come finirà.

zanflank
23-07-2021, 19:09
Sto cercando in rete ma non trovo testimonianze per l'accoppiata RX6900XT (reference) ed il mio PSU SF750 della Corsair.
A rigor di logica potrebbe essere sufficiente ma... ma i picchi mi fanno paura.

Sicuramente non farò oc anzi, l'undervolt è all'ordine del giorno come su ogni mio prodotto.

Qualcuno con PSU SFX qui?

giavial
23-07-2021, 19:56
Sto cercando in rete ma non trovo testimonianze per l'accoppiata RX6900XT (reference) ed il mio PSU SF750 della Corsair.
A rigor di logica potrebbe essere sufficiente ma... ma i picchi mi fanno paura.

Sicuramente non farò oc anzi, l'undervolt è all'ordine del giorno come su ogni mio prodotto.

Qualcuno con PSU SFX qui?

750 watt, troppo pochi. Desisti:D

Esagerao
23-07-2021, 20:26
Sto cercando in rete ma non trovo testimonianze per l'accoppiata RX6900XT (reference) ed il mio PSU SF750 della Corsair.
A rigor di logica potrebbe essere sufficiente ma... ma i picchi mi fanno paura.

Sicuramente non farò oc anzi, l'undervolt è all'ordine del giorno come su ogni mio prodotto.

Qualcuno con PSU SFX qui?

Con cpu senza overclock o pbo off ci stai abbastanza comodo a pelo ma ci stai tenendo a mente anche dischi e ventole varie: da come vedo hai un monitor 4k ragione per la quale la cpu è impegnata poco e grava tutto sulla gpu. Se lasci tutto a stock anche con minimo undervolt non dovresti avere riavvi o blocchi improvvisi. E' chiaro che un uso prolungato vicino ai limiti massimi dell'alimentatore ne accorci la vita te lo dico per esperienza personale.
Danneggiare non si danneggia niente in quanto hanno sistemi di protezione.
Metti una mano sull'uscita dall'alimentatore mentre giochi e senti quanto è calda e quanta aria esce questo ti dara indicazione del livello di stress sul Psu.

Re-voodoo
23-07-2021, 20:43
Sto cercando in rete ma non trovo testimonianze per l'accoppiata RX6900XT (reference) ed il mio PSU SF750 della Corsair.
A rigor di logica potrebbe essere sufficiente ma... ma i picchi mi fanno paura.

Sicuramente non farò oc anzi, l'undervolt è all'ordine del giorno come su ogni mio prodotto.

Qualcuno con PSU SFX qui?

Calcola che io con tutto il PC in overclock extremo arrivo a consumare 750w, ti parlo di 9900ks a 5.2ghz e 6900xt a 2800mhz senza contare il resto, quindi ci vai tranquillo con un 750w

manu89ft
25-07-2021, 09:24
Io ho 6900xt, 5600x ed un ali da 750W e mai avuto un problema, secondo me basta ed avanza anche con eventuali picchi... poi se hai un processore super pompato e ti metti a fare oc estremo sia di cpu che gpu magari la situazione cambia...

alexgti
25-07-2021, 10:36
Sto cercando in rete ma non trovo testimonianze per l'accoppiata RX6900XT (reference) ed il mio PSU SF750 della Corsair.
A rigor di logica potrebbe essere sufficiente ma... ma i picchi mi fanno paura.

Sicuramente non farò oc anzi, l'undervolt è all'ordine del giorno come su ogni mio prodotto.

Qualcuno con PSU SFX qui?

ma io spero che tu scherzi.... hai un alimentatore plantinum da 68A sui 12v e ti stai preoccupando dei picchi di una 6900xt??
Come minimo se è certificato per 750w reggerà picchi prossimi ai 950W!
Se la tua configurazione è quella in firma secondo me non arrivi manco a 500W

zanflank
25-07-2021, 11:40
ma io spero che tu scherzi.... hai un alimentatore plantinum da 68A sui 12v e ti stai preoccupando dei picchi di una 6900xt??
Come minimo se è certificato per 750w reggerà picchi prossimi ai 950W!
Se la tua configurazione è quella in firma secondo me non arrivi manco a 500W

Considera che trovi ax760 che non reggono la scheda :mbe:

FroZen
25-07-2021, 12:11
Confondete il consumo medio con quello istantaneo

Un 500w medio può avere anche picchi di qualche millisecondo che arriva a 7-800w sul canale 12v e se l’ali non li digerisce va in protezione….

Dattofree
25-07-2021, 12:28
Confondete il consumo medio con quello istantaneo

Un 500w medio può avere anche picchi di qualche millisecondo che arriva a 7-800w sul canale 12v e se l’ali non li digerisce va in protezione….

Sino a quando non ci sbattano la testa non lo capiscono. Come il discorso di chi dice: io ho un 750w e consumando 750w sono tranquillo. :fagiano:

Andy1111
25-07-2021, 14:04
Gyammy85 così colorato ti piacerà tantooooooo :D :

https://i.postimg.cc/9DyTzB40/IMG-20210725-114736.jpg (https://postimg.cc/9DyTzB40)

https://i.postimg.cc/xcJLVQnK/IMG-20210725-114934.jpg (https://postimg.cc/xcJLVQnK)

https://i.postimg.cc/9zfG1Tkg/IMG-20210725-114941.jpg (https://postimg.cc/9zfG1Tkg)

https://i.postimg.cc/bdF15rcy/IMG-20210725-114950.jpg (https://postimg.cc/bdF15rcy)

Gyammy85
25-07-2021, 15:49
Gyammy85 così colorato ti piacerà tantooooooo :D :

https://i.postimg.cc/9DyTzB40/IMG-20210725-114736.jpg (https://postimg.cc/9DyTzB40)

https://i.postimg.cc/xcJLVQnK/IMG-20210725-114934.jpg (https://postimg.cc/xcJLVQnK)

https://i.postimg.cc/9zfG1Tkg/IMG-20210725-114941.jpg (https://postimg.cc/9zfG1Tkg)

https://i.postimg.cc/bdF15rcy/IMG-20210725-114950.jpg (https://postimg.cc/bdF15rcy)

https://i.postimg.cc/kXgVDWtz/gyammy-approved-small.jpg (https://postimages.org/)

Rainy nights
25-07-2021, 22:04
Io non voglio mettere il dito nella piaga, ma dal corsair AX760i all'HX 850 ho perso rumorini assimilabili al coil whine (sulla 6900XT).


Secondo me è meglio abbondare, specie se giochi robetta pesante.


PS: sistema finito, se non fosse che il 5800x è un forno crematorio direi che ho finalmente il PC perfetto. :D

Re-voodoo
25-07-2021, 23:06
Sicuramente non puoi mandare un psu al 100% e non parlo dei picchi, io ho un hx1200i e in game consumo 750w, un Ali dovrebbe avere un 70/80% di carico al massimo, se sono alimentatori buoni i picchi li reggono tranquillamente anche sopra specifica ma meglio non andarci è chiaro

FroZen
25-07-2021, 23:06
Mai decisione fu più felice di un trattore da 850w ormai 4 anni fa

Avendo consumo medio di 300w sono perfino sovradimensionato, ecco perche punto a una 6900xt per portarmi nell’optimum del 50% di carico psu :asd:

Feidar
26-07-2021, 07:41
Io non voglio mettere il dito nella piaga, ma dal corsair AX760i all'HX 850 ho perso rumorini assimilabili al coil whine (sulla 6900XT).


Secondo me è meglio abbondare, specie se giochi robetta pesante.


PS: sistema finito, se non fosse che il 5800x è un forno crematorio direi che ho finalmente il PC perfetto. :D

Che intendi per "forno crematorio"?
Dovresti avere temperature alte su un singolo core, ma molto più basse su tutto il processore.

Esagerao
26-07-2021, 08:34
Ma infatti non ho capito nella mentalità collettiva perchè giustamente si tende a scegliere il top in tutto dalla cpu mobo ram gpu dischi ventole meno che l'alimentatore che è la cosa più importante... l'elemento che da vita al pc.

Io anni a dietro dopo l'esplosione di un 750w (esperienza che non raccomando) passai al 1000w in firma perchè avevo uno sli gtx 980 abbinato a un intel 2700k in pratica uno scaldabagno e terrorizzato decisi di stare sovrabbondante con il psu proprio per farlo lavorare a regimi ampiamente tollerati promovendone quindi la longevità.

nebuk
26-07-2021, 08:55
Ragazzi si vola... la 3090 asfaltata (rt off)

https://www.guru3d.com/articles_pages/f1_2021_pc_graphics_performance_benchmark_review,6.html

In pratica, posso fare lunghe sessioni di simulazione week end e tenere tutto il pc in risparmio energetico per avere 120fps a 4k.

che spettacolo :D
ma com'è possibile che in FullHD e in 1440p una 6800XT spinga più di una 3090? :confused:

Esagerao
26-07-2021, 08:59
Nel forum c'è gente più autorevole di me che ti spiegherà meglio in dettaglio
ma dipende senz'altro dallo sviluppo del gioco sicuramente ottimizzato per amd l'opposto di quello che succede con cyberpunk per farti capire.

ray_hunter
26-07-2021, 09:05
che spettacolo :D
ma com'è possibile che in FullHD e in 1440p una 6800XT spinga più di una 3090? :confused:

Credo sia dovuto al fatto che le memorie sono più lente in termini di velocità ma vi è un tempo di accesso inferiore. In 4K la velocità delle memorie delle RTX 30 da dei vantaggi ma in carichi inferiori sulle memorie paga l'architettura delle RX 6000 che ha tempi di accesso rapidissimi anche grazie alla infinity cache.

Gyammy85
26-07-2021, 09:15
che spettacolo :D
ma com'è possibile che in FullHD e in 1440p una 6800XT spinga più di una 3090? :confused:

A quelle res la banda "ufficiale" di 512 GB/s non fa da collo di bottiglia, quindi funziona tutto al 100%, e rdna2 ha un fillrate molto molto elevato grazie alle 128 rops, oltre ad una potenza ed efficienza in shading adeguata

zanflank
26-07-2021, 09:22
Ma infatti non ho capito nella mentalità collettiva perchè giustamente si tende a scegliere il top in tutto dalla cpu mobo ram gpu dischi ventole meno che l'alimentatore che è la cosa più importante... l'elemento che da vita al pc.

Io anni a dietro dopo l'esplosione di un 750w (esperienza che non raccomando) passai al 1000w in firma perchè avevo uno sli gtx 980 abbinato a un intel 2700k in pratica uno scaldabagno e terrorizzato decisi di stare sovrabbondante con il psu proprio per farlo lavorare a regimi ampiamente tollerati promovendone quindi la longevità.

Perché alle volte ci sono dei limiti intrinsechi (come il fattore SFX non L) o meglio ancora perché si resta su configurazioni "più umane e meno energivore".
Ma alle volte (shortage componenti in primis) ti capita l'occasione e ti fai due conti se conviene la pazzia.
Ero con una 6700XT e punto alla sorella maggiore (6800XT) da ormai mesi e mesi.

Esagerao
26-07-2021, 09:27
Perché alle volte ci sono dei limiti intrinsechi (come il fattore SFX non L) o meglio ancora perché si resta su configurazioni "più umane e meno energivore".
Ma alle volte (shortage componenti in primis) ti capita l'occasione e ti fai due conti se conviene la pazzia.
Ero con una 6700XT e punto alla sorella maggiore (6800XT) da ormai mesi e mesi.

Concordo totalmente... essendo pieno di scimmie pazze comprendo facilmente però come raccontavo prima ne ho anche buscate...
troppo eroismo talvolta si può anche pagare hehe

manu89ft
26-07-2021, 09:33
ma esiste un modo per capire quanto stia consumando il pc?
Nella mia config l'alimentatore anche quando gioco pesante l'alimentatore fa andare la ventola a regimi molto bassi ed è molto fresco, non mi pare minimamente sotto sforzo, spesso è addirittura a ventola spenta :wtf:

Gyammy85
26-07-2021, 09:36
ma esiste un modo per capire quanto stia consumando il pc?
Nella mia config l'alimentatore anche quando gioco pesante l'alimentatore fa andare la ventola a regimi molto bassi ed è molto fresco, non mi pare minimamente sotto sforzo, spesso è addirittura a ventola spenta :wtf:

Hai un signor alimentatore, poi tutto dipende dalla bontà della corrente sulla linea a 12 volt...il 5600x consuma poco

Esagerao
26-07-2021, 09:55
ma esiste un modo per capire quanto stia consumando il pc?
Nella mia config l'alimentatore anche quando gioco pesante l'alimentatore fa andare la ventola a regimi molto bassi ed è molto fresco, non mi pare minimamente sotto sforzo, spesso è addirittura a ventola spenta :wtf:

Ti sei già risposto da solo

sniperspa
26-07-2021, 10:28
ma esiste un modo per capire quanto stia consumando il pc?
Nella mia config l'alimentatore anche quando gioco pesante l'alimentatore fa andare la ventola a regimi molto bassi ed è molto fresco, non mi pare minimamente sotto sforzo, spesso è addirittura a ventola spenta :wtf:

La cpu consuma molto poco, in gioco sarai sui 100w poi aggiungici il consumo della VGA che sarà circa quello che ti indica dal pannello

alexgti
26-07-2021, 10:42
personalmente cerco sempre di capire quale è la curva di massima efficienza dei componenti per avere la massima resa con il minor consumo e temperatura possibile.
Il 10700/10700k ad esempio hanno la migliore efficienza tra i 4.6ghz e i 4.8ghz (a seconda degli esemplari) quando riesci a tenerli sotto carico tra 1.10v e 1.15v, dopodichè ogni 100mhz ti costano carissimi in termini di consumi per avere prestazioni pressochè uguali.

anche BIG NAVI ha una sua curva di efficienza e dopo 2 settimane di smanettamenti del mio esemplare ho concluso che il miglior compromesso è a ridosso dei 2200mhz, ovviamente aggiustando la curva del voltaggio con un undervolt mirato.
Impostando wattman con minimo 2000mhz e max 2200mhz ed il voltaggio a 1.090v si ha un risultato reale di circa 2150mhz e 950mv di gpu voltage, questo si traduce in consumi rilevati da gpu-z intorno ai 200W nei giochi più impegnativi. Il vantaggio tangibile è che la frequenza della gpu rimane assolutamente stabile a tutto vantaggio dell'output degli fps ma soprattutto la scheda video rimane sempre "fresca" contribuendo a tenere bassa la temperatura interna al case.
Facendo dei test con Shadow of tomb raider e con Hunt showdown la differenza di FPS tra 2200mhz@950mv e 2550mhz@1150mv è di circa il 10% per un aumento di consumo pari al 50%!!
per quanto mi riguarda non ha senso avere 110fps e 300w di consumo contro 100fps e soli 200w, poi ognuno è libero di fare come crede ma tra il mio i7-10700 4.6ghz@1.1v e la 6800XT 2200mhz@950mv è grasso che cola che arrivo a consumare 300W in totale.

zanflank
26-07-2021, 11:18
personalmente cerco sempre di capire quale è la curva di massima efficienza dei componenti per avere la massima resa con il minor consumo e temperatura possibile.
Il 10700/10700k ad esempio hanno la migliore efficienza tra i 4.6ghz e i 4.8ghz (a seconda degli esemplari) quando riesci a tenerli sotto carico tra 1.10v e 1.15v, dopodichè ogni 100mhz ti costano carissimi in termini di consumi per avere prestazioni pressochè uguali.

anche BIG NAVI ha una sua curva di efficienza e dopo 2 settimane di smanettamenti del mio esemplare ho concluso che il miglior compromesso è a ridosso dei 2200mhz, ovviamente aggiustando la curva del voltaggio con un undervolt mirato.
Impostando wattman con minimo 2000mhz e max 2200mhz ed il voltaggio a 1.090v si ha un risultato reale di circa 2150mhz e 950mv di gpu voltage, questo si traduce in consumi rilevati da gpu-z intorno ai 200W nei giochi più impegnativi. Il vantaggio tangibile è che la frequenza della gpu rimane assolutamente stabile a tutto vantaggio dell'output degli fps ma soprattutto la scheda video rimane sempre "fresca" contribuendo a tenere bassa la temperatura interna al case.
Facendo dei test con Shadow of tomb raider e con Hunt showdown la differenza di FPS tra 2200mhz@950mv e 2550mhz@1150mv è di circa il 10% per un aumento di consumo pari al 50%!!
per quanto mi riguarda non ha senso avere 110fps e 300w di consumo contro 100fps e soli 200w, poi ognuno è libero di fare come crede ma tra il mio i7-10700 4.6ghz@1.1v e la 6800XT 2200mhz@950mv è grasso che cola che arrivo a consumare 300W in totale.

Concordo, infatti l'undervolt è sempre una bella soluzione. Da valutare sempre le prestazioni; sicuramente potresti non perderne guadagnando qualcosina.
Sulla "piccola" 6700XT si poteva fare parecchio e avevo perso 10°C (non ricordo più i valori).
Su queste AMD possiamo settarle bene (pure i processori con la curva, ma ad ogni BIOS cambia e mi sono semplicemente rotto)

Spitfire84
26-07-2021, 16:31
Io non voglio mettere il dito nella piaga, ma dal corsair AX760i all'HX 850 ho perso rumorini assimilabili al coil whine (sulla 6900XT).


Secondo me è meglio abbondare, specie se giochi robetta pesante.


PS: sistema finito, se non fosse che il 5800x è un forno crematorio direi che ho finalmente il PC perfetto. :D

E' un problema tipico di quella gamma corsair. Si sente anche sul mio e se cerchi su internet sono in tanti ad avere questo ronzio.
Non è indice di malfunzionamento della psu ne di sovraccarico, ma è probabilmente qualche induttore che va in risonanza e genera il rumore (che può dare più o meno fastidio a seconda della sensibilità personale).

Rainy nights
26-07-2021, 16:50
Che intendi per "forno crematorio"?
Dovresti avere temperature alte su un singolo core, ma molto più basse su tutto il processore.

Stanza a 29 gradi (non uso condizionatori né amo le finestre aperte: amo il caldo) cinebench 86° e ci sta, ma in gioco va comodo a 77-80 nelle rare situazioni di stress. Noctua NH-U12 con doppia ventola ma a bassi regimi, case nato per sistemi silenziosi quindi restio al ventolame ma ho fatto, credo, un ottimo lavoro in entrata/uscita per rispettare la mia volontà di sistema praticamente inudibile.
Restiamo su temperature accettabili ma da forno a mio parere, la tj della gpu su CyberPunk maxato naviga sui 90 anche lei, ma essendo il limite a 113 vado tranquilla.
SPERO :asd:
Altrimenti arriva l'undervolt estivo.



E' un problema tipico di quella gamma corsair. Si sente anche sul mio e se cerchi su internet sono in tanti ad avere questo ronzio.
Non è indice di malfunzionamento della psu ne di sovraccarico, ma è probabilmente qualche induttore che va in risonanza e genera il rumore (che può dare più o meno fastidio a seconda della sensibilità personale).

Bè ora è andato in soffitta :D

CKY
26-07-2021, 17:06
E' un problema tipico di quella gamma corsair. Si sente anche sul mio e se cerchi su internet sono in tanti ad avere questo ronzio.
Non è indice di malfunzionamento della psu ne di sovraccarico, ma è probabilmente qualche induttore che va in risonanza e genera il rumore (che può dare più o meno fastidio a seconda della sensibilità personale).

Io ho dovuto sostituire il mio e ho preso un supernova 850.

Feidar
26-07-2021, 23:14
Stanza a 29 gradi (non uso condizionatori né amo le finestre aperte: amo il caldo) cinebench 86° e ci sta, ma in gioco va comodo a 77-80 nelle rare situazioni di stress. Noctua NH-U12 con doppia ventola ma a bassi regimi, case nato per sistemi silenziosi quindi restio al ventolame ma ho fatto, credo, un ottimo lavoro in entrata/uscita per rispettare la mia volontà di sistema praticamente inudibile.
Restiamo su temperature accettabili ma da forno a mio parere, la tj della gpu su CyberPunk maxato naviga sui 90 anche lei, ma essendo il limite a 113 vado tranquilla.
SPERO :asd:
Altrimenti arriva l'undervolt estivo.

Avrai un core che va a quelle temperature; ma conta almeno 15° gradi in meno su tutto il processore.
Se lo fai con CTR dovresti avere qualcosina di meglio ottimizzato a tutto tondo (consumi, calore e prestazioni).

davido
26-07-2021, 23:14
A 80 gradi e' comunque silenziosa:)

carloUba
27-07-2021, 09:44
Io per tenere temperature (70°-86° CUR e JUNC) ho la ventole praticamente al massimo.
Fa di gran lunga più rumore della vecchia 1080 blower.
MA TANTO DI PIU'

Sono francamente un pò deluso

Cr4z33
27-07-2021, 10:02
Ciao a tutti.
Dopo aver fallito per settimane tanti tentativi di acquisto tramite script (l'unica arma contro i bot di acquisto dei maledetti miners... :ncomment: ) su Amazon USA e AMD.com sono finalmente riuscito ad acquistare una SAPPHIRE RX 6800 XT Nitro+ poco usata, a prezzi umani in linea col listino.
Ho fatto già diverse simulazioni coi calcolatori online di consumo elettrico, ma volevo un'ulteriore conferma/opinione dai più esperti se ce la faccio tranquillamente con una PSU da 850W 80 Gold avendo, oltre alla GPU sopra citata, anche:

CPU AMD Ryzen 9 9500X
4 x banchi 16GB DDR4 4000 MHz
3 x NVMe 500GB
Scheda audio Creative Labs Sound Blaster X-Fi Titanium Fatal1ty Champion Series


Coi vari calcolatori arrivo sempre intorno a 550-600 Watt.
Che dite? :help:

djsnake
27-07-2021, 10:05
Ciao a tutti.
Dopo aver fallito per settimane tanti tentativi di acquisto tramite script (l'unica arma contro i bot di acquisto dei maledetti miners... :ncomment: ) su Amazon USA e AMD.com sono finalmente riuscito ad acquistare una SAPPHIRE RX 6800 XT Nitro+ poco usata, a prezzi umani in linea col listino.
Ho fatto già diverse simulazioni coi calcolatori online di consumo elettrico, ma volevo un'ulteriore conferma/opinione dai più esperti se ce la faccio tranquillamente con una PSU da 850W 80 Gold avendo, oltre alla GPU sopra citata, anche:

CPU AMD Ryzen 9 9500X
4 x banchi 16GB DDR4 4000 MHz
3 x NVMe 500GB
Scheda audio Creative Labs Sound Blaster X-Fi Titanium Fatal1ty Champion Series


Coi vari calcolatori arrivo sempre intorno a 550-600 Watt.
Che dite? :help:

Per me vai tranquillo, ed ho la stessa scheda

carloUba
27-07-2021, 10:16
Ciao a tutti.
Dopo aver fallito per settimane tanti tentativi di acquisto tramite script (l'unica arma contro i bot di acquisto dei maledetti miners... :ncomment: ) su Amazon USA e AMD.com sono finalmente riuscito ad acquistare una SAPPHIRE RX 6800 XT Nitro+ poco usata, a prezzi umani in linea col listino.
Ho fatto già diverse simulazioni coi calcolatori online di consumo elettrico, ma volevo un'ulteriore conferma/opinione dai più esperti se ce la faccio tranquillamente con una PSU da 850W 80 Gold avendo, oltre alla GPU sopra citata, anche:

CPU AMD Ryzen 9 9500X
4 x banchi 16GB DDR4 4000 MHz
3 x NVMe 500GB
Scheda audio Creative Labs Sound Blaster X-Fi Titanium Fatal1ty Champion Series


Coi vari calcolatori arrivo sempre intorno a 550-600 Watt.
Che dite? :help:

Prova, al massimo cambi ali.
Io con la 6900 sono stato costretto a passare ad un 1000 perché altrimenti avevo CTD in molti giochi. Cambiato ali scomparsi i CTD e sistema rock solid.

Cr4z33
27-07-2021, 10:21
Prova, al massimo cambi ali.

E anche questo è vero (Amazon poi, figurati). :D

nyphs
27-07-2021, 11:05
E finalmente rieccomi qui :D

dopo N tentativi sono riuscito a prendere di nuovo la 6900 .

Diciamo che a livello di temperatura in questo periodo le cose non vanno proprio bene....

ma lavorando su Chill si ottengono grandissimi risultati almeno per me, come configurazione ho utilizzato un 60 minimo e 120 massimo come fps e devo dire che la scheda lavora veramente ma veramente bene e non raggiunge più quei valori altissimi di temperatura (picco massimo 92°) rimanendo con un settaggio di ventole non aggressivo (60%).

LkMsWb
27-07-2021, 11:22
Io per tenere temperature (70°-86° CUR e JUNC) ho la ventole praticamente al massimo.
Fa di gran lunga più rumore della vecchia 1080 blower.
MA TANTO DI PIU'

Sono francamente un pò deluso

Semplicemente le Radeon non sono fatte per viaggiare a 70°, anche solo per il discorso infinity cache. Il target normale sono gli 80 circa di core e 9x di Junction, son schede fatte per lavorare in quella specifica lì, si vede anche dalla curva automatica delle ventole. Se vuoi i 70 (o meno) va liquidata, come ha fatto Dotto Raus :)

Io l'avrei fatto ma dovendo fare tutto il loop ho desistito, già ho speso troppo quest'anno :asd:

Esagerao
27-07-2021, 13:35
Io con undervolting 1140mv con clock di base e frequenze di picco sopra i 2500mhz riesco comodamente @4k a stare sotto i 70°.
E' chiaro che la gpu va aiutata con un buon flusso del case tirando bene e fuori in fretta il caldo generato.

A manforte ho deciso di spostare il radiatore della cpu da 360 sul lato, che si becca subito essendo adiacente, aria fresca dalle 3 ventole anteriori, per lasciare libere le ventole in alto e posteriore per l'aspirazione del caldo della gpu.

LkMsWb
27-07-2021, 14:01
Io con undervolting 1140mv con clock di base e frequenze di picco sopra i 2500mhz riesco comodamente @4k a stare sotto i 70°.
E' chiaro che la gpu va aiutata con un buon flusso del case tirando bene e fuori in fretta il caldo generato.

A manforte ho deciso di spostare il radiatore della cpu da 360 sul lato, che si becca subito essendo adiacente, aria fresca dalle 3 ventole anteriori, per lasciare libere le ventole in alto e posteriore per l'aspirazione del caldo della gpu.

La Red Dragon non ha dissi stock, e appunto in undervolt, dove non tutte vanno allo stesso modo ;)

Esagerao
27-07-2021, 14:18
La Red Dragon non ha dissi stock, e appunto in undervolt, dove non tutte vanno allo stesso modo ;)

Oltre al prezzo me ne ero accorto dal supporto salvaslot salva peso... davvero una mattonella dentro il pc.

Billi16
27-07-2021, 20:29
FSR all'opera su cyberpunk versione linux

https://www.youtube.com/watch?v=kJDzkSOc8sc

Ludus
27-07-2021, 20:36
Prova, al massimo cambi ali.
Io con la 6900 sono stato costretto a passare ad un 1000 perché altrimenti avevo CTD in molti giochi. Cambiato ali scomparsi i CTD e sistema rock solid.

Aveva dei problemi il tuo alimentatore, con un 750w l’ho portata anche a 380w di power limit.

carloUba
27-07-2021, 20:41
Aveva dei problemi il tuo alimentatore, con un 750w l’ho portata anche a 380w di power limit.

No nessun problema ne con il 750 ne con l'850 che sono infatti su altri 2 PC senza problemi.
Forse troppi dischi e periferiche USB.

Ludus
27-07-2021, 21:56
No nessun problema ne con il 750 ne con l'850 che sono infatti su altri 2 PC senza problemi.
Forse troppi dischi e periferiche USB.

dischi e periferiche usb non consumano praticamente nulla.

carloUba
27-07-2021, 23:18
dischi e periferiche usb non consumano praticamente nulla.

Hai ragione te

Esagerao
28-07-2021, 11:03
Appena usciti drivers nuovi Adrenalin 21.7.2

Billi16
28-07-2021, 13:42
Provati anche io, qualche altro punto in più :)

https://www.3dmark.com/spy/21793009

djsnake
28-07-2021, 17:27
Provati anche io, miglioramenti anche da me (circa 400 punti rispetto ai precedenti)

Stock
https://www.3dmark.com/3dm/64276603

OC
https://www.3dmark.com/3dm/64277272

stefano192
28-07-2021, 18:10
Eccola la bestiola:

https://imgur.com/tt6qHyN

https://imgur.com/s1sOqSH

Mamma mia quanto mi ha fatto sudare montarla. A parte il fatto che dovendo cambiare cavo di alimentazione, ho dovuto per forza togliere la copertura dei dischi e il vano, poi vabbeh dato una pulitina al pc visto che c'ero, faccio per montarla e non mi fa click il PCIe. :muro: Avevo paura di mettere troppa forza e danneggiare la mobo. Poi vabbeh mi pareva dentro, e mi son detto attacco l'alimentazione e via. Faccio per attaccare i cavi e si sente il click, dio grazie :D


Testata rapidamente con benchmark su rdr2, e nulla son passato dai 35fps della 1060 ai 115 della 6800 :sofico:

Provato anche una partita veloce a warzonemerda e si comporta bene ma non benissimo. Mi pareva di vedere dei microscatti, oltre al fatto che ho notato che non era al 99% di utilizzo ma attorno all'80-90%, e gli fps stavano sotto al cap di 144.

Detto questo, carino il software AMD per la gestione della scheda, ha un sacco di funzionalità che non pensavo avesse arrivando da NVIDIA, quindi tanto di guadagnato. Ho sistemato un attimo le ventole, devo ancora fare dei test per bene, però mi paiono ottime come temperature. Temperatura gpu 62 circa, junc sui 70 con picchi sui 76, ventole tra 1500-1700RPM circa e sinceramente con le cuffie non ci ho fatto neanche caso. Proverò stasera che c'è più silenzio. Anche vero che oggi non c'è il caldone dei giorni scorsi quindi vedrò nei prossimi giorni.


E nulla, tra qualche giorno tirerò le somme ma mi pare già un balzo in avanti allucinante :sofico:


EDIT: c'è qualcosa che non va. Non sfrutta la gpu al 100%. Stavo facendo benchmark con odyssey e nulla, gpu che arriva anche al 50% di utilizzo con clock sui 1500mhz. Cosa può essere? :muro: Pure su new world ho visto molta inconsistenza nell'utilizzo. Bottleneck con il 3700x in 1440p mi pare ridicolo, o comunque non ai livelli che la GPU droppa al 50% di utilizzo.


Ho seri problemi con la gpu. È molto inconsistente, tipo benchmark su odyssey, continua a passare da 40fps a 80 (giusto per dare due cifre) e vedi il grafico che fa così: https://streamable.com/mkbp50 Ma pure le frequenze della gpu sono super ballerine, che passano da 1700mhz a 900 o meno. A caso insomma. ?!?!?!?! Provato a disinstallare e reinstallare i driver radeon-software-adrenalin-2020-21.6.1-win10-64bit-june28

Billi16
28-07-2021, 20:40
Potresti provare 2 cose:

Nel pannello di controllo radeon su prestazioni-> ottimizzazione metti in manuale e setta la frequenza minima 100mhz sotto la massima

Windows gestione energetica su prestazioni elevate

Potresti anche fare un timespy per vedere se tutto funziona bene

djsnake
28-07-2021, 20:55
Eccola la bestiola:

https://imgur.com/tt6qHyN

https://imgur.com/s1sOqSH

Mamma mia quanto mi ha fatto sudare montarla. A parte il fatto che dovendo cambiare cavo di alimentazione, ho dovuto per forza togliere la copertura dei dischi e il vano, poi vabbeh dato una pulitina al pc visto che c'ero, faccio per montarla e non mi fa click il PCIe. :muro: Avevo paura di mettere troppa forza e danneggiare la mobo. Poi vabbeh mi pareva dentro, e mi son detto attacco l'alimentazione e via. Faccio per attaccare i cavi e si sente il click, dio grazie :D


Testata rapidamente con benchmark su rdr2, e nulla son passato dai 35fps della 1060 ai 115 della 6800 :sofico:

Provato anche una partita veloce a warzonemerda e si comporta bene ma non benissimo. Mi pareva di vedere dei microscatti, oltre al fatto che ho notato che non era al 99% di utilizzo ma attorno all'80-90%, e gli fps stavano sotto al cap di 144.

Detto questo, carino il software AMD per la gestione della scheda, ha un sacco di funzionalità che non pensavo avesse arrivando da NVIDIA, quindi tanto di guadagnato. Ho sistemato un attimo le ventole, devo ancora fare dei test per bene, però mi paiono ottime come temperature. Temperatura gpu 62 circa, junc sui 70 con picchi sui 76, ventole tra 1500-1700RPM circa e sinceramente con le cuffie non ci ho fatto neanche caso. Proverò stasera che c'è più silenzio. Anche vero che oggi non c'è il caldone dei giorni scorsi quindi vedrò nei prossimi giorni.


E nulla, tra qualche giorno tirerò le somme ma mi pare già un balzo in avanti allucinante :sofico:


EDIT: c'è qualcosa che non va. Non sfrutta la gpu al 100%. Stavo facendo benchmark con odyssey e nulla, gpu che arriva anche al 50% di utilizzo con clock sui 1500mhz. Cosa può essere? :muro: Pure su new world ho visto molta inconsistenza nell'utilizzo. Bottleneck con il 3700x in 1440p mi pare ridicolo, o comunque non ai livelli che la GPU droppa al 50% di utilizzo.


Ho seri problemi con la gpu. È molto inconsistente, tipo benchmark su odyssey, continua a passare da 40fps a 80 (giusto per dare due cifre) e vedi il grafico che fa così: https://streamable.com/mkbp50 Ma pure le frequenze della gpu sono super ballerine, che passano da 1700mhz a 900 o meno. A caso insomma. ?!?!?!?! Provato a disinstallare e reinstallare i driver radeon-software-adrenalin-2020-21.6.1-win10-64bit-june28

Attenzione che odissey è particolare e ottimizzato di cacca... A me faceva uguale, mai sfruttata al 100% . Un mio amico con la 6800 uguale, e non è bottleneck cpu (non andava a più del 50% se ricordo bene, forse anche meno).
Tutti e due siamo a 3440x1440

stefano192
28-07-2021, 21:23
Potresti provare 2 cose:

Nel pannello di controllo radeon su prestazioni-> ottimizzazione metti in manuale e setta la frequenza minima 100mhz sotto la massima

Windows gestione energetica su prestazioni elevate

Potresti anche fare un timespy per vedere se tutto funziona bene

Attenzione che odissey è particolare e ottimizzato di cacca... A me faceva uguale, mai sfruttata al 100% . Un mio amico con la 6800 uguale, e non è bottleneck cpu (non andava a più del 50% se ricordo bene, forse anche meno).
Tutti e due siamo a 3440x1440

Ringrazio entrambi. Che perdita di tempo per colpa di una merda di gioco :sofico:

Provato a fare 3dmark e andava al 99% di utilizzo. Provato altri 2 giochi, Forza horizon 4 e Gears tactics (giochi comodi che hanno bench integrati e fatti bene con le info), ed entrambi andavano al massimo come utilizzo. Come frequenze ho visto pure un 2260mhz, com'è?

E nulla, mi ha mandato un po' in crisi odyssey che vabbeh a sto punto non lo prendo in considerazione, New world che è in beta, e Warzone che fa cagare di suo :sofico: No vabbeh ci sta che magari in wz abbia un pochino di bottleneck, ora non ricordo che % avevo di utilizzo ma non era messa male come odyssey.

Esagerao
28-07-2021, 21:25
Eccola la bestiola:

https://imgur.com/tt6qHyN

https://imgur.com/s1sOqSH

Mamma mia quanto mi ha fatto sudare montarla. A parte il fatto che dovendo cambiare cavo di alimentazione, ho dovuto per forza togliere la copertura dei dischi e il vano, poi vabbeh dato una pulitina al pc visto che c'ero, faccio per montarla e non mi fa click il PCIe. :muro: Avevo paura di mettere troppa forza e danneggiare la mobo. Poi vabbeh mi pareva dentro, e mi son detto attacco l'alimentazione e via. Faccio per attaccare i cavi e si sente il click, dio grazie :D


Testata rapidamente con benchmark su rdr2, e nulla son passato dai 35fps della 1060 ai 115 della 6800 :sofico:

Provato anche una partita veloce a warzonemerda e si comporta bene ma non benissimo. Mi pareva di vedere dei microscatti, oltre al fatto che ho notato che non era al 99% di utilizzo ma attorno all'80-90%, e gli fps stavano sotto al cap di 144.

Detto questo, carino il software AMD per la gestione della scheda, ha un sacco di funzionalità che non pensavo avesse arrivando da NVIDIA, quindi tanto di guadagnato. Ho sistemato un attimo le ventole, devo ancora fare dei test per bene, però mi paiono ottime come temperature. Temperatura gpu 62 circa, junc sui 70 con picchi sui 76, ventole tra 1500-1700RPM circa e sinceramente con le cuffie non ci ho fatto neanche caso. Proverò stasera che c'è più silenzio. Anche vero che oggi non c'è il caldone dei giorni scorsi quindi vedrò nei prossimi giorni.


E nulla, tra qualche giorno tirerò le somme ma mi pare già un balzo in avanti allucinante :sofico:


EDIT: c'è qualcosa che non va. Non sfrutta la gpu al 100%. Stavo facendo benchmark con odyssey e nulla, gpu che arriva anche al 50% di utilizzo con clock sui 1500mhz. Cosa può essere? :muro: Pure su new world ho visto molta inconsistenza nell'utilizzo. Bottleneck con il 3700x in 1440p mi pare ridicolo, o comunque non ai livelli che la GPU droppa al 50% di utilizzo.


Ho seri problemi con la gpu. È molto inconsistente, tipo benchmark su odyssey, continua a passare da 40fps a 80 (giusto per dare due cifre) e vedi il grafico che fa così: https://streamable.com/mkbp50 Ma pure le frequenze della gpu sono super ballerine, che passano da 1700mhz a 900 o meno. A caso insomma. ?!?!?!?! Provato a disinstallare e reinstallare i driver radeon-software-adrenalin-2020-21.6.1-win10-64bit-june28


MI accordo totalmente con quanto detto da Billi16: prova magari anche un minimo di undervolt nonostante le temperature siano buone aiuta sempre.

Eseguito drivers update anche io ma stasera non ho tempo di benchare, più che altro oltre la prestazione spicciola mi interessa che l'amd freesync premium (variable refresh rate) lavori ancora meglio... ogni tanto mi perde qualche frame senza esserne venuto ancora a capo.

djsnake
28-07-2021, 21:38
Ringrazio entrambi. Che perdita di tempo per colpa di una merda di gioco :sofico:

Provato a fare 3dmark e andava al 99% di utilizzo. Provato altri 2 giochi, Forza horizon 4 e Gears tactics (giochi comodi che hanno bench integrati e fatti bene con le info), ed entrambi andavano al massimo come utilizzo. Come frequenze ho visto pure un 2260mhz, com'è?

E nulla, mi ha mandato un po' in crisi odyssey che vabbeh a sto punto non lo prendo in considerazione, New world che è in beta, e Warzone che fa cagare di suo :sofico: No vabbeh ci sta che magari in wz abbia un pochino di bottleneck, ora non ricordo che % avevo di utilizzo ma non era messa male come odyssey.

Comunque il consiglio di billi di mettere la frequenza minima 100 MHz piu bassa della massima tienilo in considerazione. Magari facendoti che carichi solo all'occorrenza con i giochi in cui vedi cali di fps improvvisi.

sniperspa
28-07-2021, 22:36
Ringrazio entrambi. Che perdita di tempo per colpa di una merda di gioco :sofico:

Provato a fare 3dmark e andava al 99% di utilizzo. Provato altri 2 giochi, Forza horizon 4 e Gears tactics (giochi comodi che hanno bench integrati e fatti bene con le info), ed entrambi andavano al massimo come utilizzo. Come frequenze ho visto pure un 2260mhz, com'è?

E nulla, mi ha mandato un po' in crisi odyssey che vabbeh a sto punto non lo prendo in considerazione, New world che è in beta, e Warzone che fa cagare di suo :sofico: No vabbeh ci sta che magari in wz abbia un pochino di bottleneck, ora non ricordo che % avevo di utilizzo ma non era messa male come odyssey.

Sicuramente un pò cpu limited su WZ vai tranquillo...regolati un pò con frequenze, voltaggi, cap fps/hz e vai tranquillo

Billi16
28-07-2021, 22:41
Confronto in un altro gioco che supporta sia FSR che DLSS:

https://www.youtube.com/watch?v=Io8MuK7_WgE

LkMsWb
28-07-2021, 23:59
E nulla, mi ha mandato un po' in crisi odyssey che vabbeh a sto punto non lo prendo in considerazione, New world che è in beta, e Warzone che fa cagare di suo :sofico: No vabbeh ci sta che magari in wz abbia un pochino di bottleneck, ora non ricordo che % avevo di utilizzo ma non era messa male come odyssey.

Odyssey è uno di quei giochi DX11 che non hanno mai ricevuto ottimizzazioni sull'uso del multicore per effettuare le draw call, le schede AMD vanno in limite di chiamate e non lavorano (se provi fai più fps a risoluzioni alte che basse).

Su AMD succede perché lo scheduler è hardware e quindi non puoi giostrarti le chiamate come vuoi, nVidia gestisce la cosa via software (driver) e può dividere il carico su più core. Rovescio della medaglia è che utilizzi più cpu, con alcuni paradossi moderni dove con processori non top le GeForce alte possono andare più lente, che so, di una 5700 XT, come evidenziato da hardware unboxed.

Alcuni giochi DX11 sono programmati tenendo conto della cosa e dividono da soli il carico su multicore, giochi DX12 e Vulkan non soffrono del problema.

stefano192
29-07-2021, 00:03
Odyssey è uno di quei giochi DX11 che non hanno mai ricevuto ottimizzazioni sull'uso del multicore per effettuare le draw call, le schede AMD vanno in limite di chiamate e non lavorano (se provi fai più fps a risoluzioni alte che basse).

Su AMD succede perché lo scheduler è hardware e quindi non puoi giostrarti le chiamate come vuoi, nVidia gestisce la cosa via software (driver) e può dividere il carico su più core. Rovescio della medaglia è che utilizzi più cpu, con alcuni paradossi moderni dove con processori non top le GeForce alte possono andare più lente, che so, di una 5700 XT, come evidenziato da hardware unboxed.

Alcuni giochi DX11 sono programmati tenendo conto della cosa e dividono da soli il carico su multicore, giochi DX12 e Vulkan non soffrono del problema.

Ah cacchio non lo sapevo, grazie mille per la spiegazione!

Io sono ancora illuso che se hai la gpu potente fai girare tutto easy :sofico:

Più che altro chiedendo su telegram su un gruppo, tutti a dire bottleneck, però sinceramente dai, con un 3700X bottleneck in 1440p con una 6800 mi pare assurdo. Che poi un pochino lo faccia (vedi warzone) ci sta, ma non la roba che ho visto su odyssey.


Comunque ringrazio anche gli altri, però sinceramente undervolt/toccare le frequenze non ho sbatti, sono più tipo da lasciare le cose come stanno. Giusto giusto tocco le ventole poi bon.

Darò un'occhiata pure a Radeon software che ha tante robe e con calma vedrò cosa mi interessa toccare.

LkMsWb
29-07-2021, 09:32
Ah cacchio non lo sapevo, grazie mille per la spiegazione!

Io sono ancora illuso che se hai la gpu potente fai girare tutto easy :sofico:

Più che altro chiedendo su telegram su un gruppo, tutti a dire bottleneck, però sinceramente dai, con un 3700X bottleneck in 1440p con una 6800 mi pare assurdo. Che poi un pochino lo faccia (vedi warzone) ci sta, ma non la roba che ho visto su odyssey.

Tecnicamente è un bottleneck, ma artificioso visto che per fare le chiamate usi un solo core del 3700X :sofico:

Io avevo un 2700X e rispetto al 5900X la situazione su Odyssey era drammatica (ho guadagnato qualcosa come 15fps a pari settaggi), è proprio segno evidente che è tutta una questione di potenza bruta single core.

Già le HD7000 avevano lo scheduler hardware, ma in precedenza la cosa si notava meno perché semplicemente le schede non erano così potenti da risultare nettamente limitate dalle draw calls, a livello che vanno al 50% in 1440p :D

Fortunatamente Odyssey è un caso estremo, ad esempio i titoli EA per quanto si possa non amarli non hanno alcun limite (motore Frostbite, anche settato in DX11).

EDIT: chiaramente AC Valhalla è sponsorizzato AMD, è passato alle DX12 e sulle Radeon vola xD

stefano192
29-07-2021, 11:55
Capisco, grazie ancora per la spiegazione! :)


Prima stavo provando RDR2 che è un bel mattone, e ho un paio di domande da farvi.

Se lascio andare la gpu senza limiti, ho questi valori:

https://imgur.com/Ri2Mgvd

Praticamente 99% di utilizzo e ci sta, 2250-2260mhz di frequenze, power dai 180 ai 192W, 52% di ventole sui 1700rpm e temp junction sui 97 (visto il massimo a 99°). (tra l'altro in questa occasione mi è parso di sentire un filo di coil whine :muro: però poi ha smesso)

Non sono tantissimi? :( Così ho messo il cap dei frame a 70 (giusto per vedere la differenza) e ho questi valori:

https://imgur.com/m9hhjx3

Ci sta che scenda l'utilizzo della GPU, però che scendessero così tanto anche le frequenze non me lo aspettavo. Cioè ho visto che magari pure all'80-90% di utilizzo col cap, le frequenze stanno sui 1200mhz. Pensavo funzionasse il contrario, cioè frequenze sempre alte e utilizzo minore (?) o comunque boh sulla vecchia scheda mi pareva che come frequenze stava sempre altina anche con un utilizzo meno intenso.

Vabbeh inutile commentare il cambio di temperature, e anche la potenza in W che viaggia attorno agli 80W di media (ho fatto altri screenshoot e più o meno è quella la cifra).


Che mi dite? Tutto nella norma? Pure la mia vecchia scheda raggiungeva sui 70-75° magari di temperatura, però mai avuto modo di vedere quella di giunzione quindi boh, magari stava a 200° e non l'ho mai saputo.


ps: c'è anche modo di settare la funzione RPM zero un po' più bassa? Perché in idle viaggia sui 50-54° e 60 di junc senza che vadano le ventole.


Update: giocando invece a warzone, utilizzo medio della gpu 73% e più di 135fps circa non va, quindi sì in quel caso un pochino di bottleneck probabile che lo faccia il 3700x. Il resto dei dati https://imgur.com/7VglwFZ

Billi16
29-07-2021, 18:12
Per 192w di consumo e 3 ventole a 1700rpm le temp mi sembrano altine in effetti (anche se sono tranquillamente in specifica). Quanto hai in stanza?
Per quanto riguarda il discorso delle frequenze basse dipende da come Amd ha scelto di gestire queste schede, di default fanno così.
A me non piace, infatti, è per questo motivo che ho impostato la frequenza minima 100mhz sotto la massima. Così le frequenze sono molto stabili e cala l'utilizzo, come hanno sempre funzionato le vecchie schede. Potresti provare ad impostare 2200 minima 2300 max e vedere come va oppure 2150 2250 fai tu.

Se comunque non noti problemi puoi semplicemente fregartene:D

Ps: io rpm zero l'ho tolta, metto le ventole intorno ai 600rpm in idle e sono mute.

Billi16
29-07-2021, 19:27
Io anche fino a qualche tempo fa tenevo la frequenza minima 100mhz sotto la massima ma sto notato che con questo setting in alcuni scenari le performance sono peggiori.

Ricordi in che scenari? Io avevo notato frametimes più stabili

Esagerao
30-07-2021, 08:27
Ancora non sono riuscito a testare gli ultimi drivers...ripongo fiducia nel week end.
Il discorso della frequenza minima ancora lo devo valutare per bene o meglio contestualizzarlo nello scenario d'uso migliore.

Anche io ventole gpu sempre attive il caldo passivo seppur tiepido nei componenti non mi piace e non è nemmeno salutare.

stefano192
30-07-2021, 10:06
Per 192w di consumo e 3 ventole a 1700rpm le temp mi sembrano altine in effetti (anche se sono tranquillamente in specifica). Quanto hai in stanza?
Per quanto riguarda il discorso delle frequenze basse dipende da come Amd ha scelto di gestire queste schede, di default fanno così.
A me non piace, infatti, è per questo motivo che ho impostato la frequenza minima 100mhz sotto la massima. Così le frequenze sono molto stabili e cala l'utilizzo, come hanno sempre funzionato le vecchie schede. Potresti provare ad impostare 2200 minima 2300 max e vedere come va oppure 2150 2250 fai tu.

Se comunque non noti problemi puoi semplicemente fregartene:D

Ps: io rpm zero l'ho tolta, metto le ventole intorno ai 600rpm in idle e sono mute.

Sinceramente non saprei, non ci guardo mai :D penso sui 30°? Sono a milano, quindi le temperature saranno su quelle cifre in sto periodo.

Capisco, proverò nel caso! Ho chiesto perché in effetti con nvidia e le vecchie schede ho sempre notato frequenze relativamente alte anche a fronte di un basso utilizzo della gpu. Qua invece a volte arrivano a metà del boost o comunque sono molto variabili, anche se non incide minimamente sulle prestazioni visto che rimangono ottime e costanti.


Riguardo il power limit invece? ha senso abbassarlo leggermente per vedere se scalda meno?

Altra domanda, ci sono particolari impostazioni che devo attivare/disattivare nel Radeon software? Tipo l'opzione antilag sarebbe l'alternativa al reflex di nvidia? Nel pannello nvidia sapevo cosa toccare, qua è tutto nuovo e non so quali sono le impostazioni migliori :)

Esagerao
30-07-2021, 12:30
Usciti gli adrenalin 21.7.2:

supporto per chernobilyte
risolto bug schermate nere/blu...

https://www.guru3d.com/files-details/amd-radeon-adrenalin-21-7-2-driver-download.html

BelzebV
30-07-2021, 12:38
Usciti gli adrenalin 21.7.2:

supporto per chernobilyte
risolto bug schermate nere/blu...

https://www.guru3d.com/files-details/amd-radeon-adrenalin-21-7-2-driver-download.html
è una seconda versione? perchè ricordo siano usciti già da 2 giorni

Esagerao
30-07-2021, 12:50
è una seconda versione? perchè ricordo siano usciti già da 2 giorni

Differiscono dalla .1 per sostanzialmente per la descrizione riportata nel mio post
e comunque nel link trovi tutto

djsnake
30-07-2021, 13:17
Differiscono dalla .1 per sostanzialmente per la descrizione riportata nel mio post
e comunque nel link trovi tutto

No, intende se sono un'altra versione sempre dei 21.7.2 perchè la notizia dell'uscita è già stata postata 2 giorni fa qui sul forum insieme a vari bench degli utenti (sono usciti due giorni fa in effetti)

LentapoLenta
30-07-2021, 13:22
Nel sito di AMD sono indicati con data 27/07 come i precedenti.
A naso sono una versione unica.

djsnake
30-07-2021, 13:34
Nel sito di AMD sono indicati con data 27/07 come i precedenti.
A naso sono una versione unica.

Perchè sono gli stessi, quelli di 2 giorni fa

LentapoLenta
30-07-2021, 14:01
Perchè sono gli stessi, quelli di 2 giorni fa

Appunto.

Esagerao
30-07-2021, 14:06
Sorry a tutti le mie intenzioni volevano essere costruttive

LentapoLenta
30-07-2021, 14:15
Sorry a tutti le mie intenzioni volevano essere costruttive

Ci mancherebbe! :)

djsnake
30-07-2021, 14:30
Sorry a tutti le mie intenzioni volevano essere costruttive

Figurati se devi scusarti, era chiarissimo.
Era giusto per evitare incomprensioni ;)

Billi16
30-07-2021, 19:47
Sinceramente non saprei, non ci guardo mai :D penso sui 30°? Sono a milano, quindi le temperature saranno su quelle cifre in sto periodo.

Capisco, proverò nel caso! Ho chiesto perché in effetti con nvidia e le vecchie schede ho sempre notato frequenze relativamente alte anche a fronte di un basso utilizzo della gpu. Qua invece a volte arrivano a metà del boost o comunque sono molto variabili, anche se non incide minimamente sulle prestazioni visto che rimangono ottime e costanti.


Riguardo il power limit invece? ha senso abbassarlo leggermente per vedere se scalda meno?

Altra domanda, ci sono particolari impostazioni che devo attivare/disattivare nel Radeon software? Tipo l'opzione antilag sarebbe l'alternativa al reflex di nvidia? Nel pannello nvidia sapevo cosa toccare, qua è tutto nuovo e non so quali sono le impostazioni migliori :)

Puoi provare ad abbassare il power limit e vedere cosa cambia come prestazioni/calore. Per quanto riguarda le impostazioni io uso semplicemente freesync e image sharpening. Nella scheda prestazioni mi sono creato il mio settaggio di voltaggio, clock e curva ventola.
Comunque il software radeon è molto dettagliato c'è la spiegazione per ogni parametro quindi se te lo spulci per bene dovresti capire cosa ti serve

stefano192
31-07-2021, 10:29
Puoi provare ad abbassare il power limit e vedere cosa cambia come prestazioni/calore. Per quanto riguarda le impostazioni io uso semplicemente freesync e image sharpening. Nella scheda prestazioni mi sono creato il mio settaggio di voltaggio, clock e curva ventola.
Comunque il software radeon è molto dettagliato c'è la spiegazione per ogni parametro quindi se te lo spulci per bene dovresti capire cosa ti serve

È normale che non lo possa abbassare più dell'8%? Comunque tenendo aperto rdr2, ho provato ad abbassare dell'8% in prestazioni -> ottimizzazione -> ottimizzazione -> limite di potenza % e no, non è cambiato molto il valore POWER GPU.


Si ho visto che è fatto bene (o almeno per il momento mi dà l'idea di esserlo).

Altra domanda che sicuramente creerà discussione visto che cercando un po' in giro, non ho ancora avuto un'idea chiara.

Meglio alimentarla con 2 cavi PCIE oppure 1 cavo PCIE che si splitta? L'alimentatore è l'EVGA G3 650W. Sull'internet leggo di molti che dicono meglio 2 cavi separati, altri invece che se l'alimentatore è buono/ottimo, va benissimo anche il daisychain. Un tizio che addirittura usando 2 cavi separati, ha riscontrato crash nel sistema, per poi tornare al singolo sdoppiato e risolvere. :confused:

LkMsWb
31-07-2021, 11:00
Altra domanda che sicuramente creerà discussione visto che cercando un po' in giro, non ho ancora avuto un'idea chiara.

Meglio alimentarla con 2 cavi PCIE oppure 1 cavo PCIE che si splitta? L'alimentatore è l'EVGA G3 650W. Sull'internet leggo di molti che dicono meglio 2 cavi separati, altri invece che se l'alimentatore è buono/ottimo, va benissimo anche il daisychain. Un tizio che addirittura usando 2 cavi separati, ha riscontrato crash nel sistema, per poi tornare al singolo sdoppiato e risolvere. :confused:

2 cavi separati è meglio nel senso che si carica meno il singolo cavo, lato alimentatore se si ha un single rail (il G3 è single rail) non cambia nulla. AMD stessa per le schede più alte consiglia 2 cavi separati, ora non ritrovo lo schema (mi sa che ce l'ho nella scatola della 6900 XT) :D

stefano192
31-07-2021, 11:30
2 cavi separati è meglio nel senso che si carica meno il singolo cavo, lato alimentatore se si ha un single rail (il G3 è single rail) non cambia nulla. AMD stessa per le schede più alte consiglia 2 cavi separati, ora non ritrovo lo schema (mi sa che ce l'ho nella scatola della 6900 XT) :D

Io nella scatola della 6800 non avevo nulla :cry: manco il benvenuto nel team red. Solo un foglietto nero con le "General Safety Guidelines" che però non dice nulla riguardo all'alimentazione.

Ho guardato sulla guida rapida dal sito amd ma non dice nulla riguardo cosa è meglio usare. La 6900XT però ci sta che sia più esosa in termini di alimentazione. Il fatto che si carica meno il cavo che vantaggi porta?

Feidar
31-07-2021, 14:12
Io nella scatola della 6800 non avevo nulla :cry: manco il benvenuto nel team red. Solo un foglietto nero con le "General Safety Guidelines" che però non dice nulla riguardo all'alimentazione.

Ho guardato sulla guida rapida dal sito amd ma non dice nulla riguardo cosa è meglio usare. La 6900XT però ci sta che sia più esosa in termini di alimentazione. Il fatto che si carica meno il cavo che vantaggi porta?

Durata del componente.

Rainy nights
31-07-2021, 17:26
Io nella scatola della 6800 non avevo nulla :cry: manco il benvenuto nel team red. Solo un foglietto nero con le "General Safety Guidelines" che però non dice nulla riguardo all'alimentazione.

Ho guardato sulla guida rapida dal sito amd ma non dice nulla riguardo cosa è meglio usare. La 6900XT però ci sta che sia più esosa in termini di alimentazione. Il fatto che si carica meno il cavo che vantaggi porta?

:mbe: Pensa a chi ha trovato un cherry non all'altezza di quelli della tastiera. A quel punto meglio niente.

stefano192
31-07-2021, 17:44
Durata del componente.

Mmmm, allora magari ci butto un'occhiata se riesco a inserirlo dal lato del case, perché sinceramente di rismontare tutto non ho tanta voglia, anche se vabbeh in realtà non è neanche così tragica la cosa. Vabbeh vedrò, grazie.

ps: non per essere diffidente o che, ma ci sono dati sul fatto che la durata del componente sia influenzata? Perché ripeto, online non ho trovato una risposta certa al 100%. Ok molti dicono di usarne 2, altri dicono che se hai un alimentatore buono non cambia assolutamente nulla.


:mbe: Pensa a chi ha trovato un cherry non all'altezza di quelli della tastiera. A quel punto meglio niente.

eh?

Rainy nights
01-08-2021, 03:16
eh?

Un cherry keycap con la "R". La sua altezza non corrisponde a quella degli altri tasti della mia corsair, quindi fail. :D

Malek86
01-08-2021, 09:49
Sto cercando di capire se la 6600 XT potrebbe essere una buona scheda per ultrawide 1080p. La differenza di pixel rispetto al normale 1080p non è trascurabile... con la RX480 ho avuto un calo prestazionale notevole quando sono passato a questo monitor. Quei 32MB di Infinity Cache potrebbero bastare per il 1080p, ma per una risoluzione maggiore di un terzo?

Naturalmente dovrei anche trovarla ad un prezzo decente, cosa praticamente impossibile. Già il prezzo di listino mi sembra più alto del dovuto.

LkMsWb
01-08-2021, 10:47
Un cherry keycap con la "R". La sua altezza non corrisponde a quella degli altri tasti della mia corsair, quindi fail. :D

È la Corsair che non ha altezze standard, più che altro :asd:

Io ho una GMMK a switch intercambiabili, con keycaps standard e la R è alta esattamente uguale. Non la uso perché i caps che ho son migliori qualitativamente, però potrei metterla senza problemi :D .

Feidar
01-08-2021, 15:27
Mmmm, allora magari ci butto un'occhiata se riesco a inserirlo dal lato del case, perché sinceramente di rismontare tutto non ho tanta voglia, anche se vabbeh in realtà non è neanche così tragica la cosa. Vabbeh vedrò, grazie.

ps: non per essere diffidente o che, ma ci sono dati sul fatto che la durata del componente sia influenzata? Perché ripeto, online non ho trovato una risposta certa al 100%. Ok molti dicono di usarne 2, altri dicono che se hai un alimentatore buono non cambia assolutamente nulla.


Le leggi della fisica dei componenti (l'usura) e universali (l'entropia). :D

Se non credi a quelle, potresti avere qualche problema. ^^'

Rainy nights
01-08-2021, 15:32
È la Corsair che non ha altezze standard, più che altro :asd:

Io ho una GMMK a switch intercambiabili, con keycaps standard e la R è alta esattamente uguale. Non la uso perché i caps che ho son migliori qualitativamente, però potrei metterla senza problemi :D .

:(

Comunque il pc è finito.

Tre ventole 120 in entrata*, 2 140 in uscita e 2 120 sul dissi.


Tutto a rotazione massima di 1000 rpm (minima 800), pare tenere botta anche oggi che ci sono 31 gradi in stanza :stordita:



* una sulla 6900XT

Feidar
01-08-2021, 15:34
:(

Comunque il pc è finito.

Tre ventole 120 in entrata*, 2 140 in uscita e 2 120 sul dissi.


Tutto a rotazione massima di 1000 rpm (minima 800), pare tenere botta anche oggi che ci sono 31 gradi in stanza :stordita:



* una sulla 6900XT

Onesto.
Tienici aggiornata sulle temperature; l'unico appunto sarebbe avere un flusso in uscita superiore a quello in entrata per evitare stagnazioni.

stefano192
01-08-2021, 17:29
Le leggi della fisica dei componenti (l'usura) e universali (l'entropia). :D

Se non credi a quelle, potresti avere qualche problema. ^^'

Sisi mi fido era giusto per capirne un po' di più. Comunque nel dubbio oggi ho provveduto a collegare l'altro cavo così è apposto. Volevo farlo domani ma vabbeh visto che mi ronzava in testa sta cosa, ho tagliato la testa al toro e gg. Se ci pensavo quando l'ho montata, facevo una fatica in meno.

Grazie comunque :)

Rainy nights
01-08-2021, 21:15
Onesto.
Tienici aggiornata sulle temperature; l'unico appunto sarebbe avere un flusso in uscita superiore a quello in entrata per evitare stagnazioni.

Facendo un rapido calcolo dovrei essere in quasi equilibrio, visto che quelle in uscita sono Noctua 140 con migliore portata delle 120 in entrata.


La mia scuola è sempre "equilibrio" più che "pressione negativa", anche per evitare inutile accumulo di polvere*.



* ho comunque filtri su ogni apertura, sia chiaro.

29Leonardo
02-08-2021, 06:21
Facendo un rapido calcolo dovrei essere in quasi equilibrio, visto che quelle in uscita sono Noctua 140 con migliore portata delle 120 in entrata.


La mia scuola è sempre "equilibrio" più che "pressione negativa", anche per evitare inutile accumulo di polvere*.



* ho comunque filtri su ogni apertura, sia chiaro.

Che sia positiva o negativa a me non è mai cambiato nulla a livello di accumulo polvere :stordita:

Che modello di noctua sono le 14? le nf-a pwm?

LentapoLenta
02-08-2021, 06:42
Che sia positiva o negativa a me non è mai cambiato nulla a livello di accumulo polvere :stordita:

Che modello di noctua sono le 14? le nf-a pwm?

La pressione positiva è preferibile in termini di accumulo di polvere solo in caso di un pc acceso h24.
Quando è spento, se ci sono punti ‘aperti’ la polvere entra comunque.

ray_hunter
02-08-2021, 07:17
Sto cercando di capire se la 6600 XT potrebbe essere una buona scheda per ultrawide 1080p. La differenza di pixel rispetto al normale 1080p non è trascurabile... con la RX480 ho avuto un calo prestazionale notevole quando sono passato a questo monitor. Quei 32MB di Infinity Cache potrebbero bastare per il 1080p, ma per una risoluzione maggiore di un terzo?

Naturalmente dovrei anche trovarla ad un prezzo decente, cosa praticamente impossibile. Già il prezzo di listino mi sembra più alto del dovuto.

Dipende sempre da come vuoi giocare.
In linea di massima per i giochi senza RT dovresti volare.
In Cyberpunk ad ultra però ci stai strettino: con RT scordatelo.
Pure Control con RT non ti funzionerà a dovere, così come un Watch dogs legion. Dipende da cosa vuoi giocare e come lo vuoi giocare!