PDA

View Full Version : [Thread Ufficiale] AMD Radeon RX7000 Series


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31 32 33

Xiphactinus
05-11-2023, 09:48
rivendendo il tuo, con i soldi della 4090 ti ci cambi monitor , prendi la XTX e ti avanzano pure soldi....

Miky2147
05-11-2023, 09:53
Per un AW3423DWF dici? Sono ancora in dubbio sugli oled da utilizzarsi come monitor ma se ê l'unica opzione... Mi dispiacerebbe molto liberarmi del mio X34P, anche perché con il mio esemplare vinsi alla lotteria del bleeding https://youtu.be/v6bVvGyUgPY?si=lbpzvQWzPLR74jHH

smanet
05-11-2023, 10:25
Per un AW3423DWF dici? Sono ancora in dubbio sugli oled da utilizzarsi come monitor ma se ê l'unica opzione... Mi dispiacerebbe molto liberarmi del mio X34P, anche perché con il mio esemplare vinsi alla lotteria del bleeding https://youtu.be/v6bVvGyUgPY?si=lbpzvQWzPLR74jHH

Allora tanto più è rivendibile. Io con un LG UltraGear (il 27" ERGO) l'ho persa per intero e mi sentire pure un po' Caino a venderlo a prezzo di mercatino...

Miky2147
05-11-2023, 10:29
Non ci misi neanche tanto, mi bastò renderne uno e già al secondo tentativo ottenni questo. Conosco gente che ne ha cambiati 3-4 senza mai vederne uno decente.

smanet
05-11-2023, 10:35
Non ci misi neanche tanto, mi bastò renderne uno e già al secondo tentativo ottenni questo. Conosco gente che ne ha cambiati 3-4 senza mai vederne uno decente.

...io! :D
Non che sia così male, ppppperò...

Miky2147
05-11-2023, 10:42
Personalmente un ultrawide IPS meglio di questo con luminosità a 35, che è settaggio da test proprio per trovarne i difetti, mai visto.

StylezZz`
05-11-2023, 10:58
Peccato, la 7900XTX era la scheda che volevo, quella con il miglior rapporto qualità-prezzo sul mercato. La 4080 assolutamente inconsiderabile per la VRAM ridicola, il costo eccessivo in rapporto alle prestazioni e il mio nullo interesse per le tecnologie nvidia. Speriamo che la situazione migliori con l'imminente 4080 Super/Ti.
Mi vedo costretto a prendere una 4090.

Se fossi in te mi leverei subito quel monitor, è buono per carità, ma purtroppo ti obbliga a considerare solo nvidia.

Miky2147
05-11-2023, 11:01
Se fossi in te mi leverei subito quel monitor, è buono per carità, ma purtroppo ti obbliga a considerare solo nvidia.

Lo so, trovo impegnativo vendere e spedire un monitor ingombrante e delicato come questo, preferivo evitare ma per una bella 7900XTX... Mi piacerebbe una SAPPHIRE Radeon XTX NITRO+ Vapor-X, penso sia la miglior custom.

marbasso
05-11-2023, 17:50
Lo so, trovo impegnativo vendere e spedire un monitor ingombrante e delicato come questo, preferivo evitare ma per una bella 7900XTX... Mi piacerebbe una SAPPHIRE Radeon XTX NITRO+ Vapor-X, penso sia la miglior custom.

Il PT non scorre potente in te....

Miky2147
05-11-2023, 17:51
Il PT non scorre potente in te....

Cos'è il PT? Il Path Tracing?

Ale55andr0
05-11-2023, 19:36
Peccato, la 7900XTX era la scheda che volevo, quella con il miglior rapporto qualità-prezzo sul mercato. La 4080 assolutamente inconsiderabile per la VRAM ridicola, il costo eccessivo in rapporto alle prestazioni e il mio nullo interesse per le tecnologie nvidia. Speriamo che la situazione migliori con l'imminente 4080 Super/Ti.
Mi vedo costretto a prendere una 4090.

in vero 16gb sono perfetti anche in 4k da qui al 2028 (console nex gen si suppone da 32gb). Potrà capitare qualche sporadico titolo fatto col culo che ne vuole (non alloca :read:) di più ma difficile.

Quello che non va della 4080 è il prezzo non i 16gb

Miky2147
05-11-2023, 19:48
Addirittura fino al 2028??? Mah, ho i miei dubbi...
Siamo già ora vicini al limite dei 20 GB in 4K con risoluzione nativa e RT attivo. Saranno ottimizzati male, ma è così. Star Citizen sta stretto con 16Gb senza neanche scomodare il 4K.
https://i.ibb.co/PGM8jBB/qy-MZo59xjjc-Zd-Vio6-Rvk-Hk-970-80.png

Ale55andr0
05-11-2023, 20:00
Addirittura fino al 2028??? Mah, ho i miei dubbi...
Siamo già ora vicini al limite dei 20 GB in 4K con risoluzione nativa e RT attivo. Saranno ottimizzati male, ma è così. Star Citizen sta stretto con 16Gb senza neanche scomodare il 4K.
https://i.ibb.co/PGM8jBB/qy-MZo59xjjc-Zd-Vio6-Rvk-Hk-970-80.png

come dicevo bisogna vedere se sono gb realmente richiesti o solamente allocati. Star citizen spero di poterlo vedere prima di invecchiare (troppo :asd:)

Miky2147
05-11-2023, 20:08
Sì ma tanto ormai il trend consolidato è questo, seppur inutilmente se si vuole star tranquilli meglio avere sotto il cofano tanta VRAM. Già da subito.

StylezZz`
05-11-2023, 20:22
Addirittura fino al 2028??? Mah, ho i miei dubbi...
Siamo già ora vicini al limite dei 20 GB in 4K con risoluzione nativa e RT attivo. Saranno ottimizzati male, ma è così. Star Citizen sta stretto con 16Gb senza neanche scomodare il 4K

Non mi fiderei di quel grafico fatto da AMD, basato tra l'altro su giochi usciti in pessime condizioni (TLOU in primis) e poi migliorati notevolmente con le patch successive, riducendo la quantità di VRAM occupata.

Ale55andr0
05-11-2023, 20:57
Sì ma tanto ormai il trend consolidato è questo, seppur inutilmente se si vuole star tranquilli meglio avere sotto il cofano tanta VRAM. Già da subito.

Si, l'ho sempre sostenuto anche io ma per me quando si è a quota 16gb si è a posto per un paio di annetti, è dai 12 in giù che la cosa inizia a pesare se no nsi cambia spesso gpu. Io con 20 non mi sento più a posto di chi ne ha 16 per dire, ho scelto la 7900 sulla 7800 perchè in 4k la differenza è piuttosto marcata

Ale55andr0
05-11-2023, 20:58
Non mi fiderei di quel grafico fatto da AMD, basato tra l'altro su giochi usciti in pessime condizioni (TLOU in primis) e poi migliorati notevolmente con le patch successive, riducendo la quantità di VRAM occupata.

si ma la tendenza è quella, gli asset next gen pesano più. 12gb oggi su prodotti da 600 e più euro sono una perculata al proprio cliente.
..Cmq dovremmo fidarci degli showcase scritti da e per nvidia invece? :D No perchè CP2077 in 4k la ram la divora ma giuro che AMD non c'entra :D fortuna che per i prossimi tre anni non parleranno più di quello ma si giocherà solo AW2 :O ( ricominciandolo 100 volte visto che è un titolo lineare :sofico: )

Cutter90
05-11-2023, 22:09
Ragazzi scusate ma cosa state dicendo? I primi giochi in UE5 dicono esattamente l opposto, ossia che l utilizzo della vram è in calo. Vedremo poi ma per ora il trend sembra questo.
Poi se non si gioca in 4k la vram richiesta è ancora meno...

Gyammy85
06-11-2023, 08:07
Non mi fiderei di quel grafico fatto da AMD, basato tra l'altro su giochi usciti in pessime condizioni (TLOU in primis) e poi migliorati notevolmente con le patch successive, riducendo la quantità di VRAM occupata.

I dati saranno sicuramente riferiti ad impostazioni col sam attivo, che per sua natura occupa un pò più di vram...in ogni caso, avere tutto nella vram è sicuramente meglio lato latenze per minimizzare eventuali stutter

RoUge.boh
06-11-2023, 10:14
Mah credo che la mia 7900 XTX me la terro stretta stretta per i futuri 8 anni tutti..

Vorrei condividere con voi questo video perchè ok le tecnologie "innovative" ma...

https://www.youtube.com/watch?v=6lW-5fTA9fU

Gyammy85
06-11-2023, 10:27
Test della 7800xt su 40 giochi dell'ottimo ancient gameplays

https://www.youtube.com/watch?v=ucOGqYf7dZw

Gyammy85
06-11-2023, 10:37
Mah credo che la mia 7900 XTX me la terro stretta stretta per i futuri 8 anni tutti..

Vorrei condividere con voi questo video perchè ok le tecnologie "innovative" ma...

https://www.youtube.com/watch?v=6lW-5fTA9fU

Siamo anche in un periodo di glorificazione di tutto quello che riguarda il periodo ps1 e ps2, tutto un capolavoro, tutto splendidamente perfetto, qualsiasi roba era magnifica, ma vuoi mettere tomb raider 1 cioè la rivoluzione cioè uscivi fuori guardavi gli alberi e dicevi "ma perché non hanno usato una ps1 per disegnarli"
Vedo youtuber e di riflesso utenza più o meno nostaglica parlare di roba del passato come di un periodo incredibile, quando il 90% erano commercialate messe lì perché quella console vendeva per inerzia

Ora per qualche strano motivo siccome alan wake o starfield girano così così nei loro pc la grafica fa schifo quindi tanto vale lasciar perdere, ma basta guardare un pò indietro al 2019 con control per avere video esattamente all'opposto dove era tutto una rivoluzione tutto incredibile

belta
06-11-2023, 11:05
Siamo anche in un periodo di glorificazione di tutto quello che riguarda il periodo ps1 e ps2


ricordo soprattutto i porting perfetti con vari strati di bande nere, quando passai al Pc nel 99/00 andai in estasi mistica tipo Fantozzi

ray_hunter
06-11-2023, 11:09
Per certi aspetti concordo nel dire che si è troppo nostalgici e poco obiettivi della vera qualità dei giochi di una volta rispetto a quelli attuali.

Per certi altri aspetti posso dire che quando faccio partire Crysis 3 e qualche titolo next gen attuale posso dire che, nonostante il notevole passo in avanti sul fronte delle tecnologie impiegate, l'impatto è cambiato veramente troppo poco.

Quando avevo la 5700XT mi girava tutto alla perfezione in 1440P ed ero estasiato nel vedere i giochi che giravano. Oggi con schede il triplo della potenza si fa fatica ad avere prestazioni valide eppure l'impatto dei giochi è pressochè immutato e per vedere reali differenze ci si deve soffermare ad analizzare l'immagine statica e a zoomare.

Stiamo investendo sempre di più in hw costoso ma riceviamo sempre meno gratificazione da quello che vediamo a schermo.
Da questo punto di vista le tecnologie come l'RT ci stanno restituendo dei veri mattoni con risultati però non così eclatanti dal punto di vista della resa.

Se ci fermiamo ad un Dying Light 2 o Metro Exodus dove l'RT era impiegato in modo molto intelligente la situazione sembrerebbe ancora gestibile ma guardando agli ultimi mattonazzi invece non si può non fare una riflessione su come viene impiegato l'hw.

Io guardo ai giochi sony perché un Horizon FW senza RT è stratosferico dal punto di vista visivo. Così come un GOW2 o un TLOU remastered...
In questi giochi tutto sommato le tecnologie impiegate sono abbastanza tradizionali ma la resa è incredibile

Cutter90
06-11-2023, 11:26
Mah credo che la mia 7900 XTX me la terro stretta stretta per i futuri 8 anni tutti..

Vorrei condividere con voi questo video perchè ok le tecnologie "innovative" ma...

https://www.youtube.com/watch?v=6lW-5fTA9fU

Allora. Il concetto alla base è abbastanza corretto, ma scadiamo nel soggettivo. Ma soprattutto siamo nella banalità più pura: qualsiasi videogiocatore serie baratterebbe un po' di grafica per la fisica fatta come si deve. Ma cosa vende di più? Cosa costa meno essere implementata? Cos'è più remunerativo per le Sh? La grafica. Fine, caso chiuso. Il resto è, purtroppo, aria fritta.
Con la standardizzazione del 4k io speravo davvero si puntasse sulla fisaca. maragazzi, la fisica non vede e soprattutto, cosa che molti non sanno NON è scalabile in modo ottimale.
Se si impelmetasse uan fisica seria nei VG le lamentele sarebbero "io non lo posso attivare perchè ho una cpu di 10 anni fa. E quindi saremmo lì a fare lo stesso discorso per il RT o il PT.
E quindi tutto sto video rappresenta un bellissimo ideale irrealizzabile.
Al netto che secondo me, perchè cmq è soggettivo, la bella grafica mi aiuta notevolmente ad immergermi nel mondo di gioco

Ale55andr0
06-11-2023, 11:49
Se ci fermiamo ad un Dying Light 2 o Metro Exodus dove l'RT era impiegato in modo molto intelligente la situazione sembrerebbe ancora gestibile ma guardando agli ultimi mattonazzi invece non si può non fare una riflessione su come viene impiegato l'hw.



Il come dipende anche ( e soprattutto) da chi sponsorizza e da che gpu questo sponsor ha nel periodo in cui viene applicato l'effetto xyz. L'RT di Metro è tarato per gpu con performance da serie 3000, ovviamente, non potevano mica farlo come in CP2077 in PT/AW2 o non avrebbe performato in modo "sponsoristicamente valido"...

alethebest90
06-11-2023, 12:29
Il come dipende anche ( e soprattutto) da chi sponsorizza e da che gpu questo sponsor ha nel periodo in cui viene applicato l'effetto xyz. L'RT di Metro è tarato per gpu con performance da serie 3000, ovviamente, non potevano mica farlo come in CP2077 in PT/AW2 o non avrebbe performato in modo "sponsoristicamente valido"...

sta tutto li, purtroppo Nvidia vuole spingere le sue schede, anzi la sua scheda di punta ed ecco i mattonazzi...però sta rischiando anche di fare figure di cacca che la sua top arranca gia dopo manco 1 anno :asd:

Miky2147
06-11-2023, 12:34
Mi pare di aver visto che AW II gira a 40fps sulla 4090 in 4K tutto maxxato cazzi e mazzi, path tracing ecc ecc? Spero di essermi sbagliato

Andy1111
06-11-2023, 12:42
Mi pare di aver visto che AW II gira a 40fps sulla 4090 in 4K tutto maxxato cazzi e mazzi, path tracing ecc ecc? Spero di essermi sbagliato

Un po di meno 32,2

https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/7.html

https://youtu.be/IfDukkCdEFU?t=108

Miky2147
06-11-2023, 12:43
Un po di meno 32,2



Ah :eek:

Cutter90
06-11-2023, 12:47
Mi pare di aver visto che AW II gira a 40fps sulla 4090 in 4K tutto maxxato cazzi e mazzi, path tracing ecc ecc? Spero di essermi sbagliato

E perchè mai scusa? Con PT è normalissimo faccia quei frame. Cp 2077 nje fa ancora meno se non sbaglio

cody19
06-11-2023, 12:47
Mi pare di aver visto che AW II gira a 40fps sulla 4090 in 4K tutto maxxato cazzi e mazzi, path tracing ecc ecc? Spero di essermi sbagliato

esatto, e le amd danno schermata viola :D

Miky2147
06-11-2023, 12:48
E perchè mai scusa? Con PT è normalissimo faccia quei frame. Cp 2077 nje fa ancora meno se non sbaglio

Ah ok

dominator84
06-11-2023, 14:46
per giocare aw2 si deve aspettare la 5090 a 3000 €, e si avranno i 60 fps tutto fullato

giocare... cioè per guardare... perchè il gameplay è sparo sparo quello del primo

chi si vuole risparmiare 50 euri di acquisto del gioco, basta che giochi al primo, mentre guarda i video gameplay del secondo

non l'avrei mai voluto dire ma... cod... gli sta sopra na spanna come gameplay :asd:

Cutter90
06-11-2023, 15:09
per giocare aw2 si deve aspettare la 5090 a 3000 €, e si avranno i 60 fps tutto fullato

giocare... cioè per guardare... perchè il gameplay è sparo sparo quello del primo

chi si vuole risparmiare 50 euri di acquisto del gioco, basta che giochi al primo, mentre guarda i video gameplay del secondo

non l'avrei mai voluto dire ma... cod... gli sta sopra na spanna come gameplay :asd:

Anche la lasagna è più buona della cioccolata......
Ma che razza di paragoni sono :doh:

DANY 76
06-11-2023, 15:10
per giocare aw2 si deve aspettare la 5090 a 3000 €, e si avranno i 60 fps tutto fullato

giocare... cioè per guardare... perchè il gameplay è sparo sparo quello del primo

chi si vuole risparmiare 50 euri di acquisto del gioco, basta che giochi al primo, mentre guarda i video gameplay del secondo

non l'avrei mai voluto dire ma... cod... gli sta sopra na spanna come gameplay :asd:

che?
io in 2k ci gioco con i dettagli al max,ho un amico con la 4090 che lui in 4k ci gioca con i dettagli al max,ovviamente io con fsr quality e lui con dlss quality...

ninja750
06-11-2023, 16:29
per giocare aw2 si deve aspettare la 5090 a 3000 €, e si avranno i 60 fps tutto fullato

e magicamente da quel giorno quelli che useranno gli upscaler verranno additati e scherzati :O

marbasso
06-11-2023, 19:33
Cos'è il PT? Il Path Tracing?

Si :D

Mi pare di aver visto che AW II gira a 40fps sulla 4090 in 4K tutto maxxato cazzi e mazzi, path tracing ecc ecc? Spero di essermi sbagliato

Maxato con cazzi e mazzi si passa dai 70 nelle aree pesanti ai 120 nelle areee più leggere.

StylezZz`
06-11-2023, 20:08
Mi pare di aver visto che AW II gira a 40fps sulla 4090 in 4K tutto maxxato cazzi e mazzi, path tracing ecc ecc? Spero di essermi sbagliato

No, non hai sbagliato, semplicemente hai visto le prestazioni in nativa senza l'uso del DLSS.

bobby10
06-11-2023, 21:45
sta tutto li, purtroppo Nvidia vuole spingere le sue schede, anzi la sua scheda di punta ed ecco i mattonazzi...però sta rischiando anche di fare figure di cacca che la sua top arranca gia dopo manco 1 anno :asd:

E insomma Nvidia nella testa dei giocatori sta ottenendo un innalzamento dell'asticella rendendo le top 4080 e 90 quasi necessarie per giocare in 4k almeno

Miky2147
07-11-2023, 10:42
Maxato con cazzi e mazzi si passa dai 70 nelle aree pesanti ai 120 nelle areee più leggere.

Ma con quali settaggi? :confused:

Ale55andr0
07-11-2023, 15:02
Ma con quali settaggi? :confused:

..con l'upscaler...

belta
07-11-2023, 15:06
Ma con quali settaggi? :confused:

https://imgs.search.brave.com/ienUjuChtmk8u5fLmnBMxoKv5yqQ-7A_KfVIYOnIERo/rs:fit:860:0:0/g:ce/aHR0cDovL3d3dy5y/ZWFjdGlvbmdpZnMu/Y29tL3IvbWdjLmdp/Zg.gif

Miky2147
07-11-2023, 15:30
..con l'upscaler...

Ahahahahah

DANY 76
07-11-2023, 15:40
E insomma Nvidia nella testa dei giocatori sta ottenendo un innalzamento dell'asticella rendendo le top 4080 e 90 quasi necessarie per giocare in 4k almeno

se vuoi giocare con tutto a stecca con il riflesso anche delle scorregge si....

marbasso
07-11-2023, 16:11
Ma con quali settaggi? :confused:

4k, dlss qualità, Path tracing, RR, FG, illuminazione diretta e il resto tutto a manetta.
È il prezzo del PT e della tecnologia RT.
C'è che chiede ancora il raster ma io preferisco sfruttare al massimo la vga e godermi tutti gli effetti di luce e di riflessi.
De gustibus

Miky2147
07-11-2023, 16:14
De gustibus non est disputandum

FrancoBit
07-11-2023, 16:17
Ma scusate fatemi capire una cosa, quando uscirà FSR 3 lo utilizzerete? FSR 2 mai digerito? Mi sembra che i generatori di frames e gli upscaler fi facciano cag@re a spruzzo o forse non sto capendo io :fagiano:

DANY 76
07-11-2023, 16:24
Ma scusate fatemi capire una cosa, quando uscirà FSR 3 lo utilizzerete? FSR 2 mai digerito? Mi sembra che i generatori di frames e gli upscaler fi facciano cag@re a spruzzo o forse non sto capendo io :fagiano:

a me se il gioco gira male in nativo ho sempre usato gli upsclaer se disponibili,perchè nn farlo?

Cutter90
07-11-2023, 16:27
Ma scusate fatemi capire una cosa, quando uscirà FSR 3 lo utilizzerete? FSR 2 mai digerito? Mi sembra che i generatori di frames e gli upscaler fi facciano cag@re a spruzzo o forse non sto capendo io :fagiano:

E tra l'altro FSR che qualitativamente non è a livello del dlss. E, tra l'altro, ho sempre pensato che i fautori del nativo a tutti i costi, pensino con FSR e dlss siano la stessa cosa come "scaler", quando in realtà in alcuni giochi si passa dal non poterlo usare, FSR, a è indistinguibile se non meglio del nativo+TAA, il dlss.

marbasso
07-11-2023, 19:21
a me se il gioco gira male in nativo ho sempre usato gli upsclaer se disponibili,perchè nn farlo?

Eh.....mica è un mistero...questione di fede.

bobby10
08-11-2023, 20:29
se vuoi giocare con tutto a stecca con il riflesso anche delle scorregge si....

Si e mi riferivo soprattutto alle nuove tecnologie Nvidia

Verro
09-11-2023, 09:13
So che non è il posto giusto per chiedere di monitor ma volevo sapere cosa ne pensavate dell' HP 27 omen, full HD, 165hz con pannello IPS.
Il 2k 144 mi sembra troppo anche per una 7800xt che ancora non ho. e se ora spendo 200€, dovro aspettare un po' prima di prenderla.

alethebest90
09-11-2023, 09:22
So che non è il posto giusto per chiedere di monitor ma volevo sapere cosa ne pensavate dell' HP 27 omen, full HD, 165hz con pannello IPS.
Il 2k 144 mi sembra troppo anche per una 7800xt che ancora non ho. e se ora spendo 200€, dovro aspettare un po' prima di prenderla.

full hd ad oggi non si può proprio piu sentire, vai tranquillamente di 2K non è per forza di cose che devi andare a 144fps

ci gioco io spesso in 2K con la 6700XT tramite VSR

Gyammy85
09-11-2023, 09:29
So che non è il posto giusto per chiedere di monitor ma volevo sapere cosa ne pensavate dell' HP 27 omen, full HD, 165hz con pannello IPS.
Il 2k 144 mi sembra troppo anche per una 7800xt che ancora non ho. e se ora spendo 200€, dovro aspettare un po' prima di prenderla.

Non capisco perché sei convinto che la 7800xt non ce la fa, comunque riposto il video, vedi il comportamento reale della scheda con tutta una serie di giochi

https://www.youtube.com/watch?v=ucOGqYf7dZw

Oirasor_84
09-11-2023, 09:32
So che non è il posto giusto per chiedere di monitor ma volevo sapere cosa ne pensavate dell' HP 27 omen, full HD, 165hz con pannello IPS.

Il 2k 144 mi sembra troppo anche per una 7800xt che ancora non ho. e se ora spendo 200€, dovro aspettare un po' prima di prenderla.Full hd su quella diagonale è orribile,ti troveresti tutto seghetto in game,sul 27" 1440p.

Inviato dal mio Pixel 4a utilizzando Tapatalk

belta
09-11-2023, 09:50
So che non è il posto giusto per chiedere di monitor ma volevo sapere cosa ne pensavate dell' HP 27 omen, full HD, 165hz con pannello IPS.
Il 2k 144 mi sembra troppo anche per una 7800xt che ancora non ho. e se ora spendo 200€, dovro aspettare un po' prima di prenderla.

Presi anche io un 27" full hd, non dico che sia un disastro ma lascia perdere, con la 7800xt vai diretto in QHD senza paura ;)

Verro
09-11-2023, 09:53
Grazie a tutti, mi avete salvato da un acquisto sbagliato:
Al momento ho ancora la 5700xt. A questo punto cosa mi consigliate:
- comprare il monitor e giocare in 2k con questa abbassando i dettagli
- aspettare di avere la 7800xt e POI, con calma, comprare il monitor?

Grazie ancora

StylezZz`
09-11-2023, 10:01
Grazie a tutti, mi avete salvato da un acquisto sbagliato:
Al momento ho ancora la 5700xt. A questo punto cosa mi consigliate:
- comprare il monitor e giocare in 2k con questa abbassando i dettagli
- aspettare di avere la 7800xt e POI, con calma, comprare il monitor?

Grazie ancora

Se non hai fretta ti direi di prendere prima il monitor, la 7800 XT è destinata a scendere di prezzo appena nvidia presenterà le 4000 Super.

belta
09-11-2023, 10:05
Se non hai fretta ti direi di prendere prima il monitor, la 7800 XT è destinata a scendere di prezzo appena nvidia presenterà le 4000 Super.

Quoto :cincin:

Verro
09-11-2023, 10:13
Se non hai fretta ti direi di prendere prima il monitor, la 7800 XT è destinata a scendere di prezzo appena nvidia presenterà le 4000 Super.

Ok. Quindi dici di aspettare il calo, prendere la 7800xt e POI il monitor?

StylezZz`
09-11-2023, 10:32
Ok. Quindi dici di aspettare il calo, prendere la 7800xt e POI il monitor?

No, prima darei la priorità al monitor, e poi più avanti la 7800 XT. Ripeto, se non hai fretta di averla subito, ti direi di aspettare il calo di prezzo che quasi sicuramente avverrà con l'uscita delle 4000 Super.

Verro
09-11-2023, 10:33
No, prima darei la priorità al monitor, e poi più avanti la 7800 XT. Ripeto, se non hai fretta di averla subito, ti direi di aspettare il calo di prezzo che quasi sicuramente avverrà con l'uscita delle 4000 Super.

Nessuna fretta.
Tanto gioco quasi solo a Rainbow Six e penso che la 5700xt lo gestisca anche in qhd

mackillers
09-11-2023, 10:36
So che non è il posto giusto per chiedere di monitor ma volevo sapere cosa ne pensavate dell' HP 27 omen, full HD, 165hz con pannello IPS.
Il 2k 144 mi sembra troppo anche per una 7800xt che ancora non ho. e se ora spendo 200€, dovro aspettare un po' prima di prenderla.

2K tutta la vita con la 7800xt, è ottima per quella risoluzione.
basta che il monitor sia compatibile con il Freesync a quel punto per giocare bene ti basta regolarti per stare fra i 60 ed i 120 fps a seconda del tipo di gioco e dei tuoi gusti.
non sei obbligato a fare i 144fps fissi.( cosa che poi la 7800xt riesce comunque a fare in molti titoli, soprattutto quelli più frenetici ).

mackillers
09-11-2023, 10:39
No, prima darei la priorità al monitor, e poi più avanti la 7800 XT. Ripeto, se non hai fretta di averla subito, ti direi di aspettare il calo di prezzo che quasi sicuramente avverrà con l'uscita delle 4000 Super.

molto dipende da Nvidia, perché se le 4070 super avranno prezzi alti al lancio la 7800xt non si muoverà molto, ed allora tanto vale prenderla subito.
l'informatica è un continuo dire, aspetta un po' che così cala di prezzo. ma poi esce il prodotto nuovo ed il discorso ritorna in un loop infinito.

va bene non prendere nei primi 2-3 mesi, ma da li in poi a prezzo assestato direi che si può comprare.

poi il monitor a mio giudizio, durando molti più anni della VGA ha priorità nella scelta e punterei sempre ad una soluzione più futuribile.

bobby10
09-11-2023, 10:55
Avendo entrambi i monitor ti dico anche io di prenderlo 2k.
Il 27 full hd non è un granché, per questa risoluzione non andrei oltre i 24".

mackillers
09-11-2023, 10:59
Poi alla fine per il server in negozio che si occupa di effettuare in render dei file di stampa classica e 3D ho optato per la 7900xtx red devil di power color.

il difficile è stato far entrare tutto dentro al asus prime ap201 black.

vi lascio due foto per farvi una risata...c'è un po' di case in questa scheda video :D

https://i.ibb.co/2jVxP5D/7900xtx-montata.jpg (https://ibb.co/2jVxP5D) https://i.ibb.co/Lg9bhbd/confronto-7900-XTX-vs-6600.jpg (https://ibb.co/Lg9bhbd) https://i.ibb.co/KXMN7LP/Larghezza-Vano-case-low.jpg (https://ibb.co/KXMN7LP)

per montarla ho dovuto smontare la paratia nascondi cavi e la gabbia dell' alimentatore, spostare molti cavi e tutte le ventole sul lato inferiore e poi rimontare il tutto con l'alimentatore che appoggia direttamente sulla VGA.
c'era scritto che supportava VGA lunghe 338mm e guarda caso le specifiche della red devil dicono: 338mm*135mm*73mm. direi perfetto!

bobby10
09-11-2023, 11:22
Però così non hai ventole che immettono aria dentro o sbaglio?

Cutter90
09-11-2023, 11:31
Poi alla fine per il server in negozio che si occupa di effettuare in render dei file di stampa classica e 3D ho optato per la 7900xtx red devil di power color.

il difficile è stato far entrare tutto dentro al asus prime ap201 black.

vi lascio due foto per farvi una risata...c'è un po' di case in questa scheda video :D

https://i.ibb.co/2jVxP5D/7900xtx-montata.jpg (https://ibb.co/2jVxP5D) https://i.ibb.co/Lg9bhbd/confronto-7900-XTX-vs-6600.jpg (https://ibb.co/Lg9bhbd) https://i.ibb.co/KXMN7LP/Larghezza-Vano-case-low.jpg (https://ibb.co/KXMN7LP)

per montarla ho dovuto smontare la paratia nascondi cavi e la gabbia dell' alimentatore, spostare molti cavi e tutte le ventole sul lato inferiore e poi rimontare il tutto con l'alimentatore che appoggia direttamente sulla VGA.
c'era scritto che supportava VGA lunghe 338mm e guarda caso le specifiche della red devil dicono: 338mm*135mm*73mm. direi perfetto!

Mamma mia. Sti lavori mi fanno venire un nervoso che metà basta. Vorrei un censura automatica :mad:

Verro
09-11-2023, 11:42
Avendo entrambi i monitor ti dico anche io di prenderlo 2k.
Il 27 full hd non è un granché, per questa risoluzione non andrei oltre i 24".

Tu che hai entrambi, vedi la differenza tra fhd e 2k?

bobby10
09-11-2023, 11:56
Tu che hai entrambi, vedi la differenza tra fhd e 2k?

Si vedo una bella differenza e considera che non sono nemmeno molto fissato infatti ho preso un 2k da 75hz che per me va più che bene

CKY
09-11-2023, 17:13
Avete riscontrato problemi come audio che scricchiola e fa laggare il gioco con i nuovi driver 23.11.1?

Mi succede con Grid legend a random poi sparisce e a volte quando girado video .mkv

DANY 76
09-11-2023, 17:21
Tu che hai entrambi, vedi la differenza tra fhd e 2k?

la differenza di resa tra il 1080p ed il 1400p è notevole,se poi si va sul 4k c'è un abisso.

DANY 76
09-11-2023, 17:23
Poi alla fine per il server in negozio che si occupa di effettuare in render dei file di stampa classica e 3D ho optato per la 7900xtx red devil di power color.

il difficile è stato far entrare tutto dentro al asus prime ap201 black.

vi lascio due foto per farvi una risata...c'è un po' di case in questa scheda video :D

https://i.ibb.co/2jVxP5D/7900xtx-montata.jpg (https://ibb.co/2jVxP5D) https://i.ibb.co/Lg9bhbd/confronto-7900-XTX-vs-6600.jpg (https://ibb.co/Lg9bhbd) https://i.ibb.co/KXMN7LP/Larghezza-Vano-case-low.jpg (https://ibb.co/KXMN7LP)

per montarla ho dovuto smontare la paratia nascondi cavi e la gabbia dell' alimentatore, spostare molti cavi e tutte le ventole sul lato inferiore e poi rimontare il tutto con l'alimentatore che appoggia direttamente sulla VGA.
c'era scritto che supportava VGA lunghe 338mm e guarda caso le specifiche della red devil dicono: 338mm*135mm*73mm. direi perfetto!

case decisamente inadatto per vga del genere....

belta
09-11-2023, 17:27
cut

AIUTO :eekk: :eekk: :eekk:

marbasso
09-11-2023, 20:21
Poi alla fine per il server in negozio che si occupa di effettuare in render dei file di stampa classica e 3D ho optato per la 7900xtx red devil di power color.

il difficile è stato far entrare tutto dentro al asus prime ap201 black.

vi lascio due foto per farvi una risata...c'è un po' di case in questa scheda video :D

https://i.ibb.co/2jVxP5D/7900xtx-montata.jpg (https://ibb.co/2jVxP5D)

Che è quella 140 buttata sul retto della vga :asd:

Lights_n_roses
09-11-2023, 20:37
Salve

Ho appena montato una 7900 xt reference sul mio pc am5 con cpu 7600x. Sto usando il vecchio alimentatore xfx da 750 W. Ho usato il tutto con starfield e non ho avuto problemi. Secondo voi dovrei fare uno stress test parallelo di cpu e gpu per vedere l'alimentatore regge?

Oirasor_84
09-11-2023, 21:26
Salve



Ho appena montato una 7900 xt reference sul mio pc am5 con cpu 7600x. Sto usando il vecchio alimentatore xfx da 750 W. Ho usato il tutto con starfield e non ho avuto problemi. Secondo voi dovrei fare uno stress test parallelo di cpu e gpu per vedere l'alimentatore regge?Starfield usa bene sia cpu che gpu quindi in linea di massima potrebbe andare bene come test,ma se vuoi portare al limite dei consumi tutta la piattaforma con benchmark di cpu e gpu per vedere se l'alimentatore molla fallo,sarebbe un ottimo test,ma solo perché l'ali ha qualche hanno di servizio alle spalle ,è comunque un seasonic rimarchiato se non ricordo male.
Potresti fare un bel cinebench di 20 minuti assieme al superposition.

Inviato dal mio Pixel 4a utilizzando Tapatalk

Gundam1973
09-11-2023, 21:26
Salve

Ho appena montato una 7900 xt reference sul mio pc am5 con cpu 7600x. Sto usando il vecchio alimentatore xfx da 750 W. Ho usato il tutto con starfield e non ho avuto problemi. Secondo voi dovrei fare uno stress test parallelo di cpu e gpu per vedere l'alimentatore regge?

Prova al massimo si spegne il pc...

Gundam1973
09-11-2023, 21:28
Nuovi driver TP!

https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-30-afmf-tech-preview

DANY 76
09-11-2023, 21:36
Salve

Ho appena montato una 7900 xt reference sul mio pc am5 con cpu 7600x. Sto usando il vecchio alimentatore xfx da 750 W. Ho usato il tutto con starfield e non ho avuto problemi. Secondo voi dovrei fare uno stress test parallelo di cpu e gpu per vedere l'alimentatore regge?

di preciso che modello di ali è?se cmq nn è vecchio nn ci dovrebbero esser problemi il 7600x nn consuma tanto e la vga da stock si dovrebbe attestare sui 340/350watt di consumo in gaming.

Xiphactinus
09-11-2023, 22:25
Ho appena messo gli ultimi driver WHQL (23.11.1)
e spunta questo problema...
AMD FreeSync : NON SUPPORTATO !!!!!:muro: :mbe: :eek:

Ho fatto anche la pulizia dei driver amd... ma niente!
Devo tornare indietro? Solo a me?

Lights_n_roses
09-11-2023, 22:26
di preciso che modello di ali è?se cmq nn è vecchio nn ci dovrebbero esser problemi il 7600x nn consuma tanto e la vga da stock si dovrebbe attestare sui 340/350watt di consumo in gaming.

Il modello è questo P1-750X-XXB9 .

Se lo cerchi su google si trovano varie schede tecniche. Sì è fatto da Seasonic, problemi non ne ha mai dati fin ora.

Gundam1973
09-11-2023, 23:17
Il modello è questo P1-750X-XXB9 .

Se lo cerchi su google si trovano varie schede tecniche. Sì è fatto da Seasonic, problemi non ne ha mai dati fin ora.

Come ti ho gia detto se non ricordo male nella sezione psu, probabilmente quell'ali al 99% ti reggera il carico ma....seppur una buon alimentatore ha, come hai detto tu, parecchi anni sulle spalle e lo dai in pasto a una bella config dove hai speso svariati soldini.

Usalo pure ma comincia a mettere da parte qualche euro e a natale prenditi un buon 850w...

Lights_n_roses
09-11-2023, 23:35
Come ti ho gia detto se non ricordo male nella sezione psu, probabilmente quell'ali al 99% ti reggera il carico ma....seppur una buon alimentatore ha, come hai detto tu, parecchi anni sulle spalle e lo dai in pasto a una bella config dove hai speso svariati soldini.

Usalo pure ma comincia a mettere da parte qualche euro e a natale prenditi un buon 850w...

Sì il prossimo anno penso che prenderò un 1000W, avevo visto questo Cooler Master MWE Gold 1050 V2 ATX 3.0 anche se non so chi lo produce ( se sempre seasonic o no).

Per quanto riguarda la scheda ho preso una 7900 XT usata di Sapphire ma nel modello reference di AMD, ero un po' preoccupato dal rumore ma per ora sembra accettabile...forse d'estate sarà peggio.
Mi sarebbe piaciuta la Asus TUF ma la differenza di prezzo era davvero troppa.

Esagerao
09-11-2023, 23:45
Salve

Ho appena montato una 7900 xt reference sul mio pc am5 con cpu 7600x. Sto usando il vecchio alimentatore xfx da 750 W. Ho usato il tutto con starfield e non ho avuto problemi. Secondo voi dovrei fare uno stress test parallelo di cpu e gpu per vedere l'alimentatore regge?

Segui i consigli ti hanno già dato e poi prova alla vecchia maniera: metti una mano quando tutto è sottostress all'uscita del psu per sentire quanto è calda l'aria che espelle. Se hai sensazioni da De Longhi è alla frusta.

Oirasor_84
09-11-2023, 23:45
Sì il prossimo anno penso che prenderò un 1000W, avevo visto questo Cooler Master MWE Gold 1050 V2 ATX 3.0 anche se non so chi lo produce ( se sempre seasonic o no).

Per quanto riguarda la scheda ho preso una 7900 XT usata di Sapphire ma nel modello reference di AMD, ero un po' preoccupato dal rumore ma per ora sembra accettabile...forse d'estate sarà peggio.
Mi sarebbe piaciuta la Asus TUF ma la differenza di prezzo era davvero troppa.Non è necessario 1kw,non ti fare prendere la fissa come certi utenti che consigliano alimentatori da 1200w con la motivazione cit."cosi non lo usi al massimo" o "ti dura di più..."
Gli alimentatori hanno l'efficienza migliore solitamente all'80% del carico,che poi varia in base al modello,ma a carichi bassi può perdere efficienza.

Inviato dal mio Pixel 4a utilizzando Tapatalk

Esagerao
09-11-2023, 23:47
Ho appena messo gli ultimi driver WHQL (23.11.1)
e spunta questo problema...
AMD FreeSync : NON SUPPORTATO !!!!!:muro: :mbe: :eek:

Ho fatto anche la pulizia dei driver amd... ma niente!
Devo tornare indietro? Solo a me?

E' successo anche a me in passato con l'oled in firma: in pratica per motivi ignoti il pannello ha perso l'attivazione del freesync premium, controlla quindi le impostazioni lato monitor.

Esagerao
09-11-2023, 23:51
Sì il prossimo anno penso che prenderò un 1000W, avevo visto questo Cooler Master MWE Gold 1050 V2 ATX 3.0 anche se non so chi lo produce ( se sempre seasonic o no).

Per quanto riguarda la scheda ho preso una 7900 XT usata di Sapphire ma nel modello reference di AMD, ero un po' preoccupato dal rumore ma per ora sembra accettabile...forse d'estate sarà peggio.
Mi sarebbe piaciuta la Asus TUF ma la differenza di prezzo era davvero troppa.

Se metti mano al portafogli prenditi un 1000w e stai tranquillo per anni. Tanto se guardi un 800w con poca giunta di prendi un 1000w e sei nel range efficienza maggiore. Consiglio personale dai un occhio nel warehouse sugli alimentatori si risparmia un botto, è il classico articolo da affare, come è capitato a me.
L' alimentatore più grande non è che consuma di più, è semplicemente più efficiente e più longevo, una volta mi è esploso un 750w quando avevo un sli di gtx970 esperienza assolutamente non piacevole.
Morale della favola: stai lontano dai guai prenditi sempre del margine...

Oirasor_84
09-11-2023, 23:58
Se metti mano al portafogli prenditi un 1000w e stai tranquillo per anni. Tanto se guardi un 800w con poca giunta di prendi un 1000w e sei nel range efficienza maggiore. Consiglio personale dai un occhio nel warehouse sugli alimentatori si risparmia un botto, è il classico articolo da affare, come è capitato a me.
L' alimentatore più grande non è che consuma di più, è semplicemente più efficiente e più longevo, una volta mi è esploso un 750w quando avevo un sli di gtx970 esperienza assolutamente non piacevole.
Morale della favola: stai lontano dai guai prenditi sempre del margine...

La vaccata del "è semplicemente più efficiente" dove l'hai letta?


Inviato dal mio Pixel 4a utilizzando Tapatalk

Lights_n_roses
10-11-2023, 06:44
Il 1000 w lo prenderei unicamente per essere coperto da eventuali aumenti di carico di nuove CPU e gpu future...

ninja750
10-11-2023, 08:28
Ho appena messo gli ultimi driver WHQL (23.11.1)
e spunta questo problema...
AMD FreeSync : NON SUPPORTATO !!!!!:muro: :mbe: :eek:

Ho fatto anche la pulizia dei driver amd... ma niente!
Devo tornare indietro? Solo a me?

hai provato magari con DDU? io li ho installati sopra i precedenti e via

Il 1000 w lo prenderei unicamente per essere coperto da eventuali aumenti di carico di nuove CPU e gpu future...

io invece non vorrò mai nel case gpu che consumano come una lavastoviglie :asd:

ninja750
10-11-2023, 08:30
Se non hai fretta ti direi di prendere prima il monitor, la 7800 XT è destinata a scendere di prezzo appena nvidia presenterà le 4000 Super.

se prensenterà solo le 4070 ti super e 4080 super non cambierà nulla perchè sono in altro segmento

Esagerao
10-11-2023, 09:28
La vaccata del "è semplicemente più efficiente" dove l'hai letta?


Inviato dal mio Pixel 4a utilizzando Tapatalk

Effettivamente ho spiegato male: volevo dire se abbiamo un consumo di 700/750w con un psu da 800w, il 1000w si rende preferibile come efficienza a stress.
Poi con che con quel determinato hardware non raggiunga quei consumi è un altro tema, era solo a livello teorico.

Al netto di problemi di esborso meglio sempre prendere hardware generoso...

Xiphactinus
10-11-2023, 09:38
hai provato magari con DDU? io li ho installati sopra i precedenti e via


Ho usato AMD CLEANUP UTILITY


E' successo anche a me in passato con l'oled in firma: in pratica per motivi ignoti il pannello ha perso l'attivazione del freesync premium, controlla quindi le impostazioni lato monitor.
sulle impostazioni lato Windows non c'è più la voce per attivare vvr/fs !
Ho provato anche a reinstallare il driver monitor, ma niente!


Dove trovo la versione driver precedente?
[edit] trovato!

alethebest90
10-11-2023, 09:40
hai provato magari con DDU? io li ho installati sopra i precedenti e via



io invece non vorrò mai nel case gpu che consumano come una lavastoviglie :asd:

quoto ma non solo per quello, non vorrei mai che al posto di un PC mi ritrovo un termoventilatore acceso d'estate con 40°

gia adesso questa 6700xt red devil, sarà anche fresca di suo ma il calore che esce dal case per me è gia troppo :asd:

infatti salto questa gen per prenderne una piu potente è meno esigente

belta
10-11-2023, 09:52
io invece non vorrò mai nel case gpu che consumano come una lavastoviglie :asd:

a me Gpu-z da 361 W in "board power draw" :stordita:

Xiphactinus
10-11-2023, 09:57
rimessi driver precedenti... niente! Freesync perso per sempre!:muro:

ninja750
10-11-2023, 09:57
quoto ma non solo per quello, non vorrei mai che al posto di un PC mi ritrovo un termoventilatore acceso d'estate con 40°

gia adesso questa 6700xt red devil, sarà anche fresca di suo ma il calore che esce dal case per me è gia troppo :asd:

infatti salto questa gen per prenderne una piu potente è meno esigente

esatto, già sai che alla prossima gen avremo gpu da meno di 250w alla potenza della top di oggi, è sempre stato così grazie ai nuovi PP

a me Gpu-z da 361 W in "board power draw" :stordita:

per me infatti troppissimi.. non solo per il calore ma per il wattaggio e la complessità del dissipatore. e non mi va di avere un alimentatore da 1000w

la mia (ok in undervolt..) non ha mai segnato più di 190w/195w come gpu power

Cutter90
10-11-2023, 10:00
Starfield usa bene sia cpu che gpu quindi in linea di massima potrebbe andare bene come test,ma se vuoi portare al limite dei consumi tutta la piattaforma con benchmark di cpu e gpu per vedere se l'alimentatore molla fallo,sarebbe un ottimo test,ma solo perché l'ali ha qualche hanno di servizio alle spalle ,è comunque un seasonic rimarchiato se non ricordo male.
Potresti fare un bel cinebench di 20 minuti assieme al superposition.

Inviato dal mio Pixel 4a utilizzando Tapatalk

Ahahahahahahahahahahhahahaha

Li usa "bene" nel senso che li utilizza senza motivo in modo intensivo. Quello si

belta
10-11-2023, 10:03
rimessi driver precedenti... niente! Freesync perso per sempre!:muro:

scollega e ricollega il monitor su altra porta e se non risolvi prova DDU



per me infatti troppissimi.. non solo per il calore ma per il wattaggio e la complessità del dissipatore. e non mi va di avere un alimentatore da 1000w

la mia (ok in undervolt..) non ha mai segnato più di 190w/195w come gpu power

A me per il calore fa comodo perché uso il Pc con 2 monitor e la tv mi riscaldano la camera, ovviamente in estate devo compensare con il clima.
Discorso consumi è un po la m.... ma non è dicerto il Pc che mi gonfia le bollette, siamo in 5 con 2 lavatrici, l'asciugatrice e tutti i marchingegni che fanno aria calda per la gestione dei capelli delle femmine, casa mia produce i decibel di una ditta metalmeccanica

belta
10-11-2023, 10:04
Ahahahahahahahahahahhahahaha

Li usa "bene" nel senso che li utilizza senza motivo in modo intensivo. Quello si

Alla fine lo prenderò, al primo sconto importante, voglio godermi l'ennesimo capolavoro tecnico made in Bethesda ... se tifo Unreal Engine 4 o 5 c'è un motivo :muro:

Esagerao
10-11-2023, 10:14
rimessi driver precedenti... niente! Freesync perso per sempre!:muro:

Riparti da 0 con ddu pulisci tutto.
Purtroppo ogni tanto il driver è rognsoso, ma non è che in una nuove release tolgono il freesync o la compatibilità con alcuni monitor è solo un fatto hdmi o dvi che non si fanno riconoscere correttamente.
Se hai 2 monitor rimani con uno solo collegato e controlla il menu del monitor se hai qualcosa da switchare.

Xiphactinus
10-11-2023, 11:35
ho risolto! Il driver era innocente...:rolleyes:
E' stato proprio DDU e/o AmdCleanupUtility , che hanno deciso, dopo la nuova installazione del driver AMD, di tenere disabilitato il freesync sul mio MSI !

Per chi lo avesse uguale e dovesse capitare, basta andare nel menu del monitor e abilitare nuovamente adaptive-sync sul menu GIOCO...
https://i.ibb.co/Gd0mN6f/freesync-MSI.jpg

...a quel punto il driver AMD lo riconosce immediatamente, e come per magia riapparirà la voce anche su Windows 10 da
Impostazione Schermo/Impostazione Grafica/

belta
10-11-2023, 11:48
eh niente, lo avevo disattivato anche io e non me ne ero accorto ._. sul monitor secondario FreeSync attivato e sul principale (quello in firma) era disattivato :hic: :muro: :doh:

marbasso
10-11-2023, 11:57
Alla fine lo prenderò, al primo sconto importante, voglio godermi l'ennesimo capolavoro tecnico made in Bethesda ... se tifo Unreal Engine 4 o 5 c'è un motivo :muro:

Che giocacccio di werda mioDio ...

Xiphactinus
10-11-2023, 12:00
eh niente, lo avevo disattivato anche io e non me ne ero accorto ._. sul monitor secondario FreeSync attivato e sul principale (quello in firma) era disattivato :hic: :muro: :doh:
in effetti quando non è abilitato e gli fps sono sopra i 100 non ci si fa molto caso, rispetto a stare sotto i 60...

belta
10-11-2023, 12:04
Che giocacccio di werda mioDio ...

https://imgs.search.brave.com/wQsfBqiZbzMGfw4iulZSUVZbiqC1vIUp6vuCT1HjY74/rs:fit:860:0:0/g:ce/aHR0cHM6Ly9tZWRp/YS50ZW5vci5jb20v/MjNyQUhIZTZYbXNB/QUFBQy9ib3Jpcy1t/ZXJkYS5naWY.gif

in effetti quando non è abilitato e gli fps sono sopra i 100 non ci si fa molto caso, rispetto a stare sotto i 60...

era comunque abilitato dal menù del monitor (ho verificato poi) e infatti per me funzionava...quante cose bisogna controllare :asd:

Oirasor_84
10-11-2023, 12:09
Ahahahahahahahahahahhahahaha



Li usa "bene" nel senso che li utilizza senza motivo in modo intensivo. Quello siAh chiedo scusa mi ero scordato che il forum può vantare la presenza di svariati ingegneri, programmatori di videogiochi,tuttologi...comunque il mio non era un post di elogio a starfield e a come usa le risorse,non ho le competenze per poterlo affermare...

Inviato dal mio Pixel 4a utilizzando Tapatalk

Cutter90
10-11-2023, 12:15
Ah chiedo scusa mi ero scordato che il forum può vantare la presenza di svariati ingegneri, programmatori di videogiochi,tuttologi...comunque il mio non era un post di elogio a starfield e a come usa le risorse,non ho le competenze per poterlo affermare...

Inviato dal mio Pixel 4a utilizzando Tapatalk

Ah ecco, lo immaginavo

PS: non ci vuole certo un programmatore per capire quanto strafiled giri male rispetto a quello che mette a schermo.

Oirasor_84
10-11-2023, 12:51
Ah ecco, lo immaginavo



PS: non ci vuole certo un programmatore per capire quanto strafiled giri male rispetto a quello che mette a schermo.Se lo avevi immaginato ergo quindi capito,e il contesto in cui è stato inserito starfield era abbastanza chiaro,non si stava discutendo del gioco, perché fai un post con risata?per buttarla a flame?per poi chiamare il mod?
Riguardo al post scriptum di sicuro se ho un dubbio sull'uso delle risorse di starfield non prendo per buone le tue affermazioni a sto punto mi affido al mio giudizio amatoriale.

Inviato dal mio Pixel 4a utilizzando Tapatalk

mackillers
10-11-2023, 13:11
Però così non hai ventole che immettono aria dentro o sbaglio?

in realtà il fondo è completamente forato e la vga aspira direttamente dal basso.

ho fatto un oretta di stress test e non raggiunge neppure i 70°.

il case è completamente aperto e tutto respira bene, certo avessi saputo in anticipo che avrei montato una VGA del genere avrei preferito un caso più grande, non sono masochista.

però funziona comunque bene grazie al case tutto forato. ( comunque ci sono 8 ventole in questo case a girare.)

mackillers
10-11-2023, 14:14
Mamma mia. Sti lavori mi fanno venire un nervoso che metà basta. Vorrei un censura automatica :mad:

case decisamente inadatto per vga del genere....

come dicevo prima non lo avrei mai preso sapendo di dover montare un bestione del genere, ma il software si è aggiornato prendendomi in contropiede.
detto questo però la vga sotto di se ha una apertura in mesh molto amplia ed anche di lato e sul retro è tutto forato il case e quindi in realtà non soffre affatto.
come dicevo ho provato a stressarla per 30 minuti assieme al processore e nonostante ciò non ha mai superato i 70° segno che pesca aria fresca da sotto e non ha problemi. essere chiusa ai lati non è evidentemente un grosso problema se però le ventole pescano sempre dal fresco e ci sono 3 ventole da 120 in alto ed una da 140 sul retro che rimuovono aria.

e meno male che per scrupolo avevo preso l'alimentatore da 1000Watt invece che da 850w, con quello da 850w fra 7950x e 7900xtx sarebbe stata dura.

Che è quella 140 buttata sul retto della vga :asd:

una ventola che avevo spostato per far passare la vga, poi l'ho smontata e messa di lato all' ali.

Cutter90
10-11-2023, 14:21
Se lo avevi immaginato ergo quindi capito,e il contesto in cui è stato inserito starfield era abbastanza chiaro,non si stava discutendo del gioco, perché fai un post con risata?per buttarla a flame?per poi chiamare il mod?
Riguardo al post scriptum di sicuro se ho un dubbio sull'uso delle risorse di starfield non prendo per buone le tue affermazioni a sto punto mi affido al mio giudizio amatoriale.

Inviato dal mio Pixel 4a utilizzando Tapatalk

Puoi pensarla come vuoi. Io so che ho la competenza per scrivere certi giudizi. Se tu dovessi scrivere che Starfield sia ben ottimizzato e usa correttamente cpu/gpu il tuo giudizio amatoriale sarebbe inequivocabilmente errato.
Cmq Nessuno chiama nessun mod, mai fatto, non mi interessa proprio. E basta attaccarmi, grazie

Avevo evidentemente frainteso il tuo messaggio comunque :)

Cutter90
10-11-2023, 14:23
come dicevo prima non lo avrei mai preso sapendo di dover montare un bestione del genere, ma il software si è aggiornato prendendomi in contropiede.
detto questo però la vga sotto di se ha una apertura in mesh molto amplia ed anche di lato e sul retro è tutto forato il case e quindi in realtà non soffre affatto.
come dicevo ho provato a stressarla per 30 minuti assieme al processore e nonostante ciò non ha mai superato i 70° segno che pesca aria fresca da sotto e non ha problemi. essere chiusa ai lati non è evidentemente un grosso problema se però le ventole pescano sempre dal fresco e ci sono 3 ventole da 120 in alto ed una da 140 sul retro che rimuovono aria.

e meno male che per scrupolo avevo preso l'alimentatore da 1000Watt invece che da 850w, con quello da 850w fra 7950x e 7900xtx sarebbe stata dura.



una ventola che avevo spostato per far passare la vga, poi l'ho smontata e messa di lato all' ali.

Ma guarda non è tanto per le temperature, sono sicuro che lato perf ti sarai fatto i tuoi conti. E' l'assurdità di voler infilare una vga come quella in un sistema come quello, così piccolo e non dimensionato. Soprattutto se si spendono 1000 euro per una vga trovo insensato non spenderne 100 per un case adatto. :)

Andy1111
10-11-2023, 14:42
Non è necessario 1kw,non ti fare prendere la fissa come certi utenti che consigliano alimentatori da 1200w con la motivazione cit."cosi non lo usi al massimo" o "ti dura di più..."
Gli alimentatori hanno l'efficienza migliore solitamente all'80% del carico,che poi varia in base al modello,ma a carichi bassi può perdere efficienza.

Inviato dal mio Pixel 4a utilizzando Tapatalk

Normalmente l'efficienza migliore è sul 50% dell'ali , più la gente non considera che ogni anno c'è un 1/2% di perdita di efficienza

https://www.clearesult.com/80plus/program-details#program-details-table&xcust=2-1-394951-1-0-0&sref=https://www.pcworld.com/article/394951/pc-power-supply-ratings-80-plus-platinum-vs-gold-vs-bronze-vs-white-explained.html

Cutter90
10-11-2023, 15:21
Normalmente l'efficienza migliore è sul 50% dell'ali , più la gente non considera che ogni anno c'è un 1/2% di perdita di efficienza

https://www.clearesult.com/80plus/program-details#program-details-table&xcust=2-1-394951-1-0-0&sref=https://www.pcworld.com/article/394951/pc-power-supply-ratings-80-plus-platinum-vs-gold-vs-bronze-vs-white-explained.html

Confermo. Nel mio ad esempio l'efficienza massima ce l'ha dai 300 ai 700 watt circa di utilizzo.

CtrlAltSdeng!
10-11-2023, 15:26
Senza farsi troppe pippe un buon ali tiene dieci anni se a suo volta è aiutato nel lavorare:

- buon airflow
- no polvere
- no a alti wattaggi a ridosso del cap per lungo tempo

alla stregua di una vga, se stiamo nell'intorno dei 50% di assorbimento abbiamo ampio margine senza tirare il collo al tutto (alte temp, rumore ventola etc) sia operativamente che elettricamente (migliore efficienza e assorbimento di picchi eventuali)

Possiamo anche stare all'80% certo ma avrai una psu che fa casino e certi picchi ti porterebbero vicino alla soglia di shutdown....

Ritengo massimo un 500w come consumo "ideale" per un pc da gioco e configuro il tutto per stare in quell'intorno e dimensionato l'ali sempre il giusto....ho un 850w platinum

Oirasor_84
10-11-2023, 17:49
Normalmente l'efficienza migliore è sul 50% dell'ali , più la gente non considera che ogni anno c'è un 1/2% di perdita di efficienza



https://www.clearesult.com/80plus/program-details#program-details-table&xcust=2-1-394951-1-0-0&sref=https://www.pcworld.com/article/394951/pc-power-supply-ratings-80-plus-platinum-vs-gold-vs-bronze-vs-white-explained.htmlSi grazie Andy mi sono espresso male,intendevo dire che l'alimentatore bisogna sceglierlo dimensionato al sistema,e quindi meglio prenderlo sapendo di arrivare a sfruttarlo al 80%,e colgo la palla al balzo visto che hai linkato i requisiti per le certificazioni per dire che,Secondo me si crea un po' di confusione quando si parla di efficienza e certificazione degli alimentatori,quelle nel link sopra sono le linee guida che un alimentatore dovrebbe rispettare per avere la certificazione,ma purtroppo la certificazione non è regolamentata bene,tipo per esempio non c'è un controllo sui bollini delle certificazioni, i produttori che spesso mandano golden sample e conducono test a temperature ambiente basse quindi ,la linea dei 5v non viene testata,e sempre bene andarsi a guardare qualche test e recensione.
Detto questo l'efficienza di un alimentatore non significa che non eroga la potenza necessaria,tipo se un alimentatore da 600w al 90 % del carico ha una efficienza dell 80% ,non significa che eroga l' 80% del carico anziché il 90% richiesto dal pc,ma che dalla presa a muro ne sta assorbendo di più,e i watt in eccesso si trasformano in calore,questa è l'efficienza.
Ora nei requisiti fino al platinum non si testa mai il 10% del carico,ma quando il pc è in idle con un basso consumo è importante avere una buona efficienza tanto quanto in load e quando si sceglie un alimentatore da 1000w o 1200w non Titanium e il pc sta consumando 100w lo stiamo facendo lavorare male e potrebbe trovarsi a dissipare 50/100w di calore a seconda dell'efficienza che ha com carichi sotto il 20% ,poi certo dipende anche dal modello che si sceglie.
Quindi scegliere un alimentatore sovradimensionato come un 1000w per un pc che ne consuma 500/600 non è una scelta molto sensata perché si perde l'efficienza a bassi carichi che poi probabilmente sono quelli in cui il pc passa più tempo,e ripeto solo nela certificazione Titanium viene testato il 10% del carico.

Inviato dal mio Pixel 4a utilizzando Tapatalk

Andy1111
10-11-2023, 18:03
Si grazie Andy mi sono espresso male,intendevo dire che l'alimentatore bisogna sceglierlo dimensionato al sistema,e quindi meglio prenderlo sapendo di arrivare a sfruttarlo al 80%,e colgo la palla al balzo visto che hai linkato i requisiti per le certificazioni per dire che,Secondo me si crea un po' di confusione quando si parla di efficienza e certificazione degli alimentatori,quelle nel link sopra sono le linee guida che un alimentatore dovrebbe rispettare per avere la certificazione,ma purtroppo la certificazione non è regolamentata bene,tipo per esempio non c'è un controllo sui bollini delle certificazioni, i produttori che spesso mandano golden sample e conducono test a temperature ambiente basse quindi ,la linea dei 5v non viene testata,e sempre bene andarsi a guardare qualche test e recensione.
Detto questo l'efficienza di un alimentatore non significa che non eroga la potenza necessaria,tipo se un alimentatore da 600w al 90 % del carico ha una efficienza dell 80% ,non significa che eroga l' 80% del carico anziché il 90% richiesto dal pc,ma che dalla presa a muro ne sta assorbendo di più,e i watt in eccesso si trasformano in calore,questa è l'efficienza.
Ora nei requisiti fino al platinum non si testa mai il 10% del carico,ma quando il pc è in idle con un basso consumo è importante avere una buona efficienza tanto quanto in load e quando si sceglie un alimentatore da 1000w o 1200w non Titanium e il pc sta consumando 100w lo stiamo facendo lavorare male e potrebbe trovarsi a dissipare 50/100w di calore a seconda dell'efficienza che ha com carichi sotto il 20% ,poi certo dipende anche dal modello che si sceglie.
Quindi scegliere un alimentatore sovradimensionato come un 1000w per un pc che ne consuma 500/600 non è una scelta molto sensata perché si perde l'efficienza a bassi carichi che poi probabilmente sono quelli in cui il pc passa più tempo,e ripeto solo nela certificazione Titanium viene testato il 10% del carico.

Inviato dal mio Pixel 4a utilizzando Tapatalk

Non è proprio esatto, dipende dal tipo di ali, ti faccio l'esempio del mio preso ormai diversi anni fa

https://pcper.com/2012/05/antec-high-current-pro-platinum-1000w-power-supply-review/8/

https://pcper.com/wp-content/uploads/2012/04/44ad-32-efficiency-graph.jpg

https://www.nexthardware.com/recensioni/antec-hcp-1000w-platinum-711/11/

https://www.nexthardware.com/repository/recensioni/711/immagini/img_AntecHCP1000WPlatinumeff_799157331253628639.jpg

https://www.nexthardware.com/repository/recensioni/711/immagini/img_AntecHCP1000WPlatinumeffcomp_5775679716554043950.jpg

Oirasor_84
10-11-2023, 18:23
Non è proprio esatto, dipende dal tipo di ali, ti faccio l'esempio del mio preso ormai diversi anni fa

Cosa non è esatto scusami?

Inviato dal mio Pixel 4a utilizzando Tapatalk

Andy1111
10-11-2023, 18:27
Cosa non è esatto scusami?

Inviato dal mio Pixel 4a utilizzando Tapatalk

Un ali con una buona certificazione anche al 10% o al 20% ha una efficienza oltre il 90%

https://www.nexthardware.com/recensioni/antec-signature-titanium-1000-1462/11/

https://www.nexthardware.com/repository/recensioni/1462/immagini/Antec_SIGNATURE_1000_TITANIUM_eff.jpg

Oirasor_84
10-11-2023, 18:53
Un ali con una buona certificazione anche al 10% o al 20% ha una efficienza oltre il 90%



https://www.nexthardware.com/recensioni/antec-signature-titanium-1000-1462/11/



https://www.nexthardware.com/repository/recensioni/1462/immagini/Antec_SIGNATURE_1000_TITANIUM_eff.jpgAh ok certo,ma questo è il titanium,nei Platinum non viene testato il 10% e ho scritto che poi dipende dall' alimentatore ed ho specificato ad inizio papiro che bisogna sempre andarsi a guardare review e test.Quello che ho scritto è per chi magari si ferma a guardare solo il bollino dell'efficienza e ci sono alimentatori che magari al 10% del carico hanno un efficienza del 70/80% una volta testati nelle review,e può variare anche in base al sample,ripeto fino al platinum i produttori non sono tenuti a dare un'efficienza alta.
Cioè in sintesi perché dovrei andare a prendermi un 1000w se ho il pc che a pieno carico ne consuma 600w e rischiare di avere meno efficienza a carichi bassi.

Inviato dal mio Pixel 4a utilizzando Tapatalk

Ale55andr0
10-11-2023, 19:26
ho risolto! Il driver era innocente...:rolleyes:
E' stato proprio DDU e/o AmdCleanupUtility...

poi ci sono io che, dopo essermi (ogni tanto capita :asd:) ricordato di aggiornare i driver, li installo sopra i vecchi impunemente senza MAI avere avuto mezzo problema in vita mia :asd:

DANY 76
10-11-2023, 19:28
poi ci sono io che, dopo essermi (ogni tanto capita :asd:) ricordato di aggiornare i driver, li installo sopra i vecchi impunemente senza MAI avere avuto mezzo problema in vita mia :asd:

idem mai fatto pulizie e usato programmini affini,aggiorno e GG.

Andy1111
10-11-2023, 19:34
Ah ok certo,ma questo è il titanium,nei Platinum non viene testato il 10% e ho scritto che poi dipende dall' alimentatore ed ho specificato ad inizio papiro che bisogna sempre andarsi a guardare review e test.Quello che ho scritto è per chi magari si ferma a guardare solo il bollino dell'efficienza e ci sono alimentatori che magari al 10% del carico hanno un efficienza del 70/80% una volta testati nelle review,e può variare anche in base al sample,ripeto fino al platinum i produttori non sono tenuti a dare un'efficienza alta.
Cioè in sintesi perché dovrei andare a prendermi un 1000w se ho il pc che a pieno carico ne consuma 600w e rischiare di avere meno efficienza a carichi bassi.

Inviato dal mio Pixel 4a utilizzando Tapatalk

se scendi sotto gli 850 si è difficile che trovi un ali testato al 10% anche perchè su un 750 sono 75, difficile trovare un pc che consumi solo 75W oggi come oggi, o baglio?
a 850 si trova questo è un gold :

https://www.nexthardware.com/recensioni/seasonic-focus-gx-850-1424/11/

https://www.nexthardware.com/repository/recensioni/1424/immagini/Seasonic_Focus_GX-850_850W_Gold_eff.jpg

Oirasor_84
10-11-2023, 19:42
se scendi sotto gli 850 si è difficile che trovi un ali testato al 10% anche perchè su un 750 sono 75, difficile trovare un pc che consumi solo 75W oggi come oggi, o baglio?

a 850 si trova questo è un gold :



https://www.nexthardware.com/recensioni/seasonic-focus-gx-850-1424/11/



https://www.nexthardware.com/repository/recensioni/1424/immagini/Seasonic_Focus_GX-850_850W_Gold_eff.jpgAppunto, non ti devi nemmeno preoccupare di come rende al 10% un alimentatore dimensionato per la build che andrai a fare,cosa che invece diventa importante se prendi un 1000w o peggio un 1200w su un pc che ne consuma 600/700w,a meno che non siamo tutti overclocker da azoto ...

Inviato dal mio Pixel 4a utilizzando Tapatalk

Verro
11-11-2023, 09:23
Questione monitor archiviata, ho preso un 2k, IPS, 144HZ. Grazie a tutti

Torniamo alla serie 7000.

Ho visto che c'è anche la 7900GRE (che nome schifoso) che condivide lo stesso chip della XT e XTX ma costa più della 7800xt e va poco più. E tutte e due vanno praticamente come una 6900 senza nessun miglioramento rispetto a quest'ultima in ambito ray tracing, il FMF ormai c'è anche sulla serie 6xxx, mi spiegate che senso ha tutto questo? Sembrano tre schede che si sovrappongono, per prestazioni, prezzi e funzionalità. Anzi, la 6900 costa ancora tanto.
A che pro?

DANY 76
11-11-2023, 09:55
Questione monitor archiviata, ho preso un 2k, IPS, 144HZ. Grazie a tutti

Torniamo alla serie 7000.

Ho visto che c'è anche la 7900GRE (che nome schifoso) che condivide lo stesso chip della XT e XTX ma costa più della 7800xt e va poco più. E tutte e due vanno praticamente come una 6900 senza nessun miglioramento rispetto a quest'ultima in ambito ray tracing, il FMF ormai c'è anche sulla serie 6xxx, mi spiegate che senso ha tutto questo? Sembrano tre schede che si sovrappongono, per prestazioni, prezzi e funzionalità. Anzi, la 6900 costa ancora tanto.
A che pro?

a prezzo e prestazioni simili meglio una 7000,supporto driver e funzionalità migliore e per più tempo.

Verro
11-11-2023, 11:39
a prezzo e prestazioni simili meglio una 7000,supporto driver e funzionalità migliore e per più tempo.

Ok! Ma la GRE che senso ha visto che va come una 7800xt e costa di più?

DANY 76
11-11-2023, 11:57
Ok! Ma la GRE che senso ha visto che va come una 7800xt e costa di più?

parlavo in genere cmq la GRE nn ha molto senso in pratica è una 7900xt uscita male e riciclata con 16gb di v-ram,un pò come le prossime nvidia super sono per lo più gpu uscite male scalate di fascia e nomenclatura e riciclate.

la serie attuale di vga amd per me son sbagliate,non esiste una 7600xt e la 7700xt è troppo vicino alla 7800xt,la odierna rx 7800xt dovrebbe essere una rx 7800 liscia e la 7900 gre avrebbero dovuto potenziarla leggermente e chiamarla 7800xt.

StylezZz`
11-11-2023, 12:15
la serie attuale di vga amd per me son sbagliate,non esiste una 7600xt e la 7700xt è troppo vicino alla 7800xt,la odierna rx 7800xt dovrebbe essere una rx 7800 liscia e la 7900 gre avrebbero dovuto potenziarla leggermente e chiamarla 7800xt.

diciamo 7700 XT.

Verro
11-11-2023, 14:29
parlavo in genere cmq la GRE nn ha molto senso in pratica è una 7900xt uscita male e riciclata con 16gb di v-ram,un pò come le prossime nvidia super sono per lo più gpu uscite male scalate di fascia e nomenclatura e riciclate.

la serie attuale di vga amd per me son sbagliate,non esiste una 7600xt e la 7700xt è troppo vicino alla 7800xt,la odierna rx 7800xt dovrebbe essere una rx 7800 liscia e la 7900 gre avrebbero dovuto potenziarla leggermente e chiamarla 7800xt.

D'accordissimo. Cosi la GRE non ha senso, è uguale alla 7800xt. Comunque c'è troppa differenza di prezzo con la 7900xt, quindi andrò o di Gre o di 7800, aspetto il black fradicio

DANY 76
11-11-2023, 15:39
D'accordissimo. Cosi la GRE non ha senso, è uguale alla 7800xt. Comunque c'è troppa differenza di prezzo con la 7900xt, quindi andrò o di Gre o di 7800, aspetto il black fradicio

se la 7900xt ti costa troppo prendi la 7800xt,la differenza di performance con la GRE è poca ma costa più di 50 euro in meno.
ritengo poco sensata anche la 7800xt,se trovata a buon prezzo ok ma va +/- come la vecchia 6800xt quindi bò,delle 7000 per me le più sensate sono le 7900 xt e xtx o la 7700xt se provieni da una vga di fascia bassa e nn vuoi spendere tanto.

Verro
11-11-2023, 16:23
se la 7900xt ti costa troppo prendi la 7800xt,la differenza di performance con la GRE è poca ma costa più di 50 euro in meno.
ritengo poco sensata anche la 7800xt,se trovata a buon prezzo ok ma va +/- come la vecchia 6800xt quindi bò,delle 7000 per me le più sensate sono le 7900 xt e xtx o la 7700xt se provieni da una vga di fascia bassa e nn vuoi spendere tanto.

la prendo con la partita IVa quindi la 7800xt mi viene 400€ circa. Una 6800xt non si trova a meno!

Gyammy85
11-11-2023, 20:38
Questione monitor archiviata, ho preso un 2k, IPS, 144HZ. Grazie a tutti

Torniamo alla serie 7000.

Ho visto che c'è anche la 7900GRE (che nome schifoso) che condivide lo stesso chip della XT e XTX ma costa più della 7800xt e va poco più. E tutte e due vanno praticamente come una 6900 senza nessun miglioramento rispetto a quest'ultima in ambito ray tracing, il FMF ormai c'è anche sulla serie 6xxx, mi spiegate che senso ha tutto questo? Sembrano tre schede che si sovrappongono, per prestazioni, prezzi e funzionalità. Anzi, la 6900 costa ancora tanto.
A che pro?

La 7800xt è l'acquisto migliore nella fascia dei 500 euro, e in rt la 7800xt va anche meglio della 6950xt in certi casi
La GRE è super frenata dalla banda che è pure inferiore alla 7800xt

Lights_n_roses
11-11-2023, 21:49
Io ho la 7900 xt l'ho presa usata ( versione reference ) A 680 euro...ho speso qualcosa di più della 7800 xt ..spero ne sia valsa la pena. L'alternativa NVIDIA era la 4070TI ma mi con convinceva per la RAM dedicata.
Per ora ho provato solo Starfiled di gioco moderno e mi sembra si comporti bene. Gioco a 3800x1600 di risoluzione. Non ho abilitato upscaling, mi sembra il gioco giri fluido così com'è ma non ho fatto test.

Qualcusa sa indicarmi un valido stress test che mandi al 100% sia CPU che GPU? Ne ho provato uno via browser ma la scheda video non la saturava..

Verro
11-11-2023, 21:57
Io ho la 7900 xt l'ho presa usata ( versione reference ) A 680 euro...ho speso qualcosa di più della 7800 xt ..spero ne sia valsa la pena. L'alternativa NVIDIA era la 4070TI ma mi con convinceva per la RAM dedicata.
Per ora ho provato solo Starfiled di gioco moderno e mi sembra si comporti bene. Gioco a 3800x1600 di risoluzione. Non ho abilitato upscaling, mi sembra il gioco giri fluido così com'è ma non ho fatto test.

Qualcusa sa indicarmi un valido stress test che mandi al 100% sia CPU che GPU? Ne ho provato uno via browser ma la scheda video non la saturava..

3dmark?

Sharksg
11-11-2023, 22:18
ragazzi voglio un info...i nuovi driver preview hanno sistemato la stabilità del AFMF? nel senso adesso si nota la differenza? con i driver di prima io non avevo notato nessuna differenza o attivo o non attivo..vi ringrazio se qualcuno mi rispondesse e mi aggiornasse:)

Xiphactinus
11-11-2023, 23:10
Qualcusa sa indicarmi un valido stress test che mandi al 100% sia CPU che GPU? Ne ho provato uno via browser ma la scheda video non la saturava..

io ho provato MSI Kombustor + Prime95 insieme.....
CPU al 100% e GPU al 97,7%

https://i.ibb.co/YpTFGpD/MSI-KOMB-Prime95.jpg (https://ibb.co/YpTFGpD)

Penso di stare sui 450W totali alla spina....

Zoro82
12-11-2023, 07:19
ragazzi voglio un info...i nuovi driver preview hanno sistemato la stabilità del AFMF? nel senso adesso si nota la differenza? con i driver di prima io non avevo notato nessuna differenza o attivo o non attivo..vi ringrazio se qualcuno mi rispondesse e mi aggiornasse:)

Io è un paio di giorni che ci smanetto e per adesso ho le idee abbastanza confuse... Per ora ho visto che bisogna fare caso se il fmf si attiva in uno specifico gioco perché se c'è vsync on non va.
Poi boh i frame effettivamente quasi raddoppiano ma il feeling è strano, se ci aggiungi che il fmf si disattiva coi movimenti veloci del mouse (almeno così è scritto)

Windtears
12-11-2023, 08:00
ragazzi voglio un info...i nuovi driver preview hanno sistemato la stabilità del AFMF? nel senso adesso si nota la differenza? con i driver di prima io non avevo notato nessuna differenza o attivo o non attivo..vi ringrazio se qualcuno mi rispondesse e mi aggiornasse:)

finché non li includono nei driver principale non credo si possa dire che abbiano "sistemato" per cui...

Sharksg
12-11-2023, 09:04
ho installato gli ultimi driver AFMF ho testato e sembrerebbe che in termini di stabilità è meglio rispetto ai primi driver..ma ancora non ci siamo del tutto...si vede ancora quel effetto tremolante.:(

DANY 76
12-11-2023, 09:54
Io ho la 7900 xt l'ho presa usata ( versione reference ) A 680 euro...ho speso qualcosa di più della 7800 xt ..spero ne sia valsa la pena. L'alternativa NVIDIA era la 4070TI ma mi con convinceva per la RAM dedicata.
Per ora ho provato solo Starfiled di gioco moderno e mi sembra si comporti bene. Gioco a 3800x1600 di risoluzione. Non ho abilitato upscaling, mi sembra il gioco giri fluido così com'è ma non ho fatto test.

Qualcusa sa indicarmi un valido stress test che mandi al 100% sia CPU che GPU? Ne ho provato uno via browser ma la scheda video non la saturava..

starfiled è ottimizzato con i piedi nn va quasi mai a frame rate elevati anche se hai un pc performante,cyberpunk e alan wake sono graficamente di molto superiori e girano molto meglio,almeno sul mio pc è così.
a che ti serve stressare il sistema?cmq puoi sempre fare un 3d mark.

Poliphilo
14-11-2023, 13:34
Io ho la 7900 xt l'ho presa usata ( versione reference ) A 680 euro...ho speso qualcosa di più della 7800 xt ..spero ne sia valsa la pena. L'alternativa NVIDIA era la 4070TI ma mi con convinceva per la RAM dedicata.
Per ora ho provato solo Starfiled di gioco moderno e mi sembra si comporti bene. Gioco a 3800x1600 di risoluzione. Non ho abilitato upscaling, mi sembra il gioco giri fluido così com'è ma non ho fatto test.

Qualcusa sa indicarmi un valido stress test che mandi al 100% sia CPU che GPU? Ne ho provato uno via browser ma la scheda video non la saturava..

A 680 usata è interessante...dove l'hai trovata?

mackillers
14-11-2023, 16:56
Questione monitor archiviata, ho preso un 2k, IPS, 144HZ. Grazie a tutti

Torniamo alla serie 7000.

Ho visto che c'è anche la 7900GRE (che nome schifoso) che condivide lo stesso chip della XT e XTX ma costa più della 7800xt e va poco più. E tutte e due vanno praticamente come una 6900 senza nessun miglioramento rispetto a quest'ultima in ambito ray tracing, il FMF ormai c'è anche sulla serie 6xxx, mi spiegate che senso ha tutto questo? Sembrano tre schede che si sovrappongono, per prestazioni, prezzi e funzionalità. Anzi, la 6900 costa ancora tanto.
A che pro?

a prezzo e prestazioni simili meglio una 7000,supporto driver e funzionalità migliore e per più tempo.

Verro non ha tutti i torti, purtroppo questa Gen di AMD, nonostante ne sia un acquirente ha un po' deluso.
non ci sono novità importanti sul tecnologie su cui AMD era in ritardo e non ci sono funzionalità esclusive rispetto alla precedente Gen.
sostanzialmente hanno solo sfruttato il nuovo processo produttivo e la struttura multichip per aumentare la conta di unità di calcolo e scalare di conseguenza.
la differenza a parità di core anche in Ray tracing non è molta.

quindi se trovi una 6900 o 6950xt ad un 100€ in meno rispetto ad una 7900gre o simili non sbagli molto a prenderla.

ovviamente se il risparmio è poco conviene la gen più recente per il supporto driver che si suppone essere più durevole.

Windtears
14-11-2023, 17:14
Verro non ha tutti i torti, purtroppo questa Gen di AMD, nonostante ne sia un acquirente ha un po' deluso.
non ci sono novità importanti sul tecnologie su cui AMD era in ritardo e non ci sono funzionalità esclusive rispetto alla precedente Gen.

l'antilag+ era esclusiva rdna3 mi pare, prima che per colpa dei ban di cs lo decurtassero dai driver.... per quel che vale eh, ma non è detto che rimanga l'eccezione.

Verro
14-11-2023, 19:34
Verro non ha tutti i torti, purtroppo questa Gen di AMD, nonostante ne sia un acquirente ha un po' deluso.
non ci sono novità importanti sul tecnologie su cui AMD era in ritardo e non ci sono funzionalità esclusive rispetto alla precedente Gen.
sostanzialmente hanno solo sfruttato il nuovo processo produttivo e la struttura multichip per aumentare la conta di unità di calcolo e scalare di conseguenza.
la differenza a parità di core anche in Ray tracing non è molta.

quindi se trovi una 6900 o 6950xt ad un 100€ in meno rispetto ad una 7900gre o simili non sbagli molto a prenderla.

ovviamente se il risparmio è poco conviene la gen più recente per il supporto driver che si suppone essere più durevole.

trovando la 7800xt a 400€ (iva esclusa), conviene perché una 6800xt non si trova a questo prezzo e nemmeno la 6900 usata (che va poco piu). A questo punto compro la 7800xt nuova (anche se ho un solo anno di garanzia)

Poliphilo
15-11-2023, 12:18
trovando la 7800xt a 400€ (iva esclusa), conviene perché una 6800xt non si trova a questo prezzo e nemmeno la 6900 usata (che va poco piu). A questo punto compro la 7800xt nuova (anche se ho un solo anno di garanzia)

Infatti, se posso introdurmi visto che anche io sto valutando, la 7900 GRE è scesa a 620 euro circa (se la trovi), a quel punto con 50 euro in meno trovi la 7800 XT (550-600 euro) che almeno è RDN3 rispetto alla 6800....

Ma questa 7900 gre qualcuno l'ha provata?

mackillers
15-11-2023, 13:56
l'antilag+ era esclusiva rdna3 mi pare, prima che per colpa dei ban di cs lo decurtassero dai driver.... per quel che vale eh, ma non è detto che rimanga l'eccezione.

Può darsi, al momento non ricordo. più che altro la speranza è che prima o poi si decidano ad utilizzare per qualcosa i core per l'AI che nella serie 6000 non erano presenti.
un DLSS in salsa AMD potrebbe essere utile perché permetterebbe di migliorare la qualità di resa in certi contesti e di sfruttare delle unità dedicate per l'upscaling che teoricamente potrebbero così lasciare libere le classiche unità di calcolo della VGA per renderizzare un maggior numero di frame. (in realtà questo è del tutto teorico perché dal punto di vista degli fps generati FSR rimane vicino al DLSS quindi è possibile che l'impatto prestazionale non sia molto elevato).

poi come miglioramento della serie 7000 piuttosto importante c'è il nuovo engine video e la compatibilità con AV1 che in futuro potranno essere davvero importanti per qualche utente.

mackillers
15-11-2023, 14:06
Infatti, se posso introdurmi visto che anche io sto valutando, la 7900 GRE è scesa a 620 euro circa (se la trovi), a quel punto con 50 euro in meno trovi la 7800 XT (550-600 euro) che almeno è RDN3 rispetto alla 6800....

Ma questa 7900 gre qualcuno l'ha provata?

in pochissimi visto che non è ufficialmente importata in italia a quanto ne so. teoricamente va poco di più di una 7800xt.
di conseguenza penso sia conveniente quest'ultima.

Andy1111
15-11-2023, 14:16
https://www.hardwaretimes.com/amd-fsr-3-vs-nvidia-dlss-3-which-is-better/

Confronto FSR 3 vs DLSS 3 su Immortals of Aveum

Non il miglior gioco ma per ora c'è questo per confrontare, FSR 3 mi sembra ne esca abbastanza bene, soprattutto per quello che interessa a me FSR 3 Native AA

Verro
15-11-2023, 16:55
https://www.hardwaretimes.com/amd-fsr-3-vs-nvidia-dlss-3-which-is-better/

Confronto FSR 3 vs DLSS 3 su Immortals of Aveum

Non il miglior gioco ma per ora c'è questo per confrontare, FSR 3 mi sembra ne esca abbastanza bene, soprattutto per quello che interessa a me FSR 3 Native AA

Va bene, ma c'è ancora in troppi pochi giochi. È passato un anno dall'annuncio e i giochi che lo supportano sono una manciata.
C'è il FMF, però non penso sia la stessa cosa.

CtrlAltSdeng!
15-11-2023, 17:01
In realtà è uscito da poco più di un mese :stordita:

Andy1111
15-11-2023, 17:37
Va bene, ma c'è ancora in troppi pochi giochi. È passato un anno dall'annuncio e i giochi che lo supportano sono una manciata.
C'è il FMF, però non penso sia la stessa cosa.

FMF c'è in FSR 3, per questo motivo ancora non è stato rilasciato l'sdk su gpuopen e relativo plug-in per ue5, appena finirà la beta dei driver fmf secondo me verrà rilasciato.

https://gpuopen.com/fsr3-in-games-technical-details/

Gyammy85
15-11-2023, 19:29
In realtà è uscito da poco più di un mese :stordita:

Fra l'altro non avevano neanche accennato al mese, un generico 2023

Verro
15-11-2023, 23:34
In realtà è uscito da poco più di un mese :stordita:

Lo so. Io ho scritto infatti "dall'annuncio" è passato un anno, non dal rilascio

Miky2147
15-11-2023, 23:35
Ciao meglio la 7900XTX Asus Tuf o la Sapphire NITRO+ Vapor-X? Grazie

StylezZz`
16-11-2023, 06:54
Ciao meglio la 7900XTX Asus Tuf o la Sapphire NITRO+ Vapor-X? Grazie

Sono entrambe buone, ma io andrei di Nitro per la mia preferenza verso Sapphire.

Miky2147
16-11-2023, 07:21
Soprattutto ho un dubbio con la garanzia, in caso di problemi meglio ASUS o Sapphire in Italia?

StylezZz`
16-11-2023, 07:39
Soprattutto ho un dubbio con la garanzia, in caso di problemi meglio ASUS o Sapphire in Italia?

Se vuoi stare tranquillo con la garanzia, prendila su amazon o bpm.

mackillers
16-11-2023, 17:42
https://www.hardwaretimes.com/amd-fsr-3-vs-nvidia-dlss-3-which-is-better/

Confronto FSR 3 vs DLSS 3 su Immortals of Aveum

Non il miglior gioco ma per ora c'è questo per confrontare, FSR 3 mi sembra ne esca abbastanza bene, soprattutto per quello che interessa a me FSR 3 Native AA

Purtroppo si tratta di un unico gioco e sponsorizzato AMD dove appunto il DLSS non da il meglio di se.
in linea di massima il DLSS è pacifico che sfruttando il machine learning possa "riconoscere" gli elementi grafici ed adattarsi in maniera "senziente".
l'approccio più semplice di AMD ha il vantaggio di non richiedere adattamenti ed "addestramenti" dell' IA per adattarsi ai vari giochi ma è intrinsecamente meno efficiente.

che poi in modalità qualità la differenza sia poca è vero, ma a basse risoluzioni o con modalità più aggressive sul fronte prestazionale le differenze si notano.

difatti se avessi trovato una RTX con la stessa quaantità di Vram ed ampliezza di banda della mia 7900XTX (uso degli applicativi particolari per lavoro che richiedono molta Vram e che non si giovano dei miglioramenti prestazionali di CUDA ed altre funzioni evolute di nvidia) l'avrei comprata, ma per la 4090 serve un mutuo e la 4080 a 50-100€ in più andrebbe bene, già 200 mi fa storcere il naso, mi pare che Nvidia ci marci un po' troppo su.

detto questo non si può essere fanboy, Nvidia lato RTX e DLSS e supporto software in generale, anche grazie alla sua maggiore quota di mercato, è decisamente avanti.

mackillers
16-11-2023, 17:46
Soprattutto ho un dubbio con la garanzia, in caso di problemi meglio ASUS o Sapphire in Italia?

ti consiglio anche io sapphire, ne ho avute molte in passato e di solito sono le migliori personalizzazioni AMD quasi sempre.
Anche power color non è male ed alle volte essendo meno gettonata si paga un po' meno.
Asus non la consiglierei perché è costosa senza dare molto di più in cambio.

poi alla fine conta il prezzo a cui le trovi, le differenze sono poche alla fin dei conti.
io puntavo la Nitro ma ho trovato a quasi 100€ in meno la Power Color ed ho preso quella.

p.s. è silenziosissima se ti interessa questo dettaglio.

belta
16-11-2023, 19:42
Soprattutto ho un dubbio con la garanzia, in caso di problemi meglio ASUS o Sapphire in Italia?

Io prenderei una Sapphire senza neanche pensarci, possibilmente da uno store che abbia un minimo di storicità.

Miky2147
16-11-2023, 19:44
Io prenderei una Sapphire senza neanche pensarci, possibilmente da uno store che abbia un minimo di storicità.

Che store mi consigli?

belta
16-11-2023, 19:47
Che store mi consigli?

Per via dei prezzi solitamente più abbordabili in primis BPM e poi Amazon (la mia 7900xtx l'ho presa da BPM, solo tieni presente che ti arriva in 5-6 giorni).

Poliphilo
18-11-2023, 10:42
in pochissimi visto che non è ufficialmente importata in italia a quanto ne so. teoricamente va poco di più di una 7800xt.
di conseguenza penso sia conveniente quest'ultima.

Non capisco i commenti negativi, io dai test sui vari giochi vedo che va dal 5 al 10% in piu' di una 7800xt.

Base clock: 1295 contro 1500 della 7800 xt
Boost clock: 2430 contro 2245 della 7800 xt
Banda passante: 576 contro 576 della 7800 xt
Frequenza memoria: 18.000 contro 19500 della 7800 xt
Processori shaders: 5120 contro 3840 della 7800 xt (33% in piu')
Consumo: 260 watt contro 300 watt della 7800 xt

Il prezzo per una e l'altra (considerando una 7800 xt buona) siamo intorno ai 600 euro. Costa uguale, consuma meno e va di piu'....bho

DANY 76
18-11-2023, 11:59
Non capisco i commenti negativi, io dai test sui vari giochi vedo che va dal 5 al 10% in piu' di una 7800xt.

Base clock: 1295 contro 1500 della 7800 xt
Boost clock: 2430 contro 2245 della 7800 xt
Banda passante: 576 contro 576 della 7800 xt
Frequenza memoria: 18.000 contro 19500 della 7800 xt
Processori shaders: 5120 contro 3840 della 7800 xt (33% in piu')
Consumo: 260 watt contro 300 watt della 7800 xt

Il prezzo per una e l'altra (considerando una 7800 xt buona) siamo intorno ai 600 euro. Costa uguale, consuma meno e va di piu'....bho

la 7800xt veramente costa meno.
su trovaprezzi la 7800xt parte da poco sopra i 500 euro,la 7900gre costa dai 600 e spicci a salire e se ne trovano pochissime pochiè nn è per il mercato europeo.
la GRE è una 7900 uscita male e riciclata ma di fatto va troppo poco meglio della 7800xt,paghi 70/80 euro in più per avere un pizzico di performance in più in gaming e nient'altro.
è un buon affare solo se la trovi allo stesso prezzo della 7800.

Poliphilo
18-11-2023, 12:23
la 7800xt veramente costa meno.
su trovaprezzi la 7800xt parte da poco sopra i 500 euro,la 7900gre costa dai 600 e spicci a salire e se ne trovano pochissime pochiè nn è per il mercato europeo.
la GRE è una 7900 uscita male e riciclata ma di fatto va troppo poco meglio della 7800xt,paghi 70/80 euro in più per avere un pizzico di performance in più in gaming e nient'altro.
è un buon affare solo se la trovi allo stesso prezzo della 7800.

Certo, pero' consuma meno.
E tra una 7800xt e una 7900xt (questa sta sulle 800 minimo) la differenza di prezzo vale le prestazioni in piu'?

DANY 76
18-11-2023, 12:33
Certo, pero' consuma meno.
E tra una 7800xt e una 7900xt (questa sta sulle 800 minimo) la differenza di prezzo vale le prestazioni in piu'?

davvero guardi una differenza di consumo di 30/40 watt?seriamente?
tra la 7800xt e la 7900xt vale la differenza di prezzo?decisamente si!più v-ram, e circa il 30% di performance in più che è tanto.
https://www.techpowerup.com/gpu-specs/radeon-rx-7800-xt.c3839
riferimento la 7800xt,la 7900xt la da come performance media il 28% in più è un'altra fascia proprio.

edit: https://www.youtube.com/watch?v=LFZkaZTJaqs

test fatto in 1440p,differenze evidenti.

A64FX+DFI nF4
18-11-2023, 12:41
Non capisco i commenti negativi, io dai test sui vari giochi vedo che va dal 5 al 10% in piu' di una 7800xt.

Base clock: 1287 contro 1295 della 7800 xt
Boost clock: 2245 contro 2430 della 7800 xt
Banda passante: 576 contro 624.1 della 7800 xt
Frequenza memoria: 18.000 contro 19500 della 7800 xt
Processori shaders: 5120 contro 3840 della 7800 xt (33% in piu')
Consumo: 260 watt contro 263 watt della 7800 xt

Il prezzo per una e l'altra (considerando una 7800 xt buona) siamo intorno ai 600 euro. Costa uguale, consuma meno e va di piu'....bho

fix in grassetto, la GRE è castrata dalla banda passante

StylezZz`
18-11-2023, 15:44
Certo, pero' consuma meno.
E tra una 7800xt e una 7900xt (questa sta sulle 800 minimo) la differenza di prezzo vale le prestazioni in piu'?

siamo lì...e comunque la 7800 ho visto che si undervolta bene, consumando sui 200W.

Verro
19-11-2023, 01:53
Non capisco i commenti negativi, io dai test sui vari giochi vedo che va dal 5 al 10% in piu' di una 7800xt.

Base clock: 1295 contro 1500 della 7800 xt
Boost clock: 2430 contro 2245 della 7800 xt
Banda passante: 576 contro 576 della 7800 xt
Frequenza memoria: 18.000 contro 19500 della 7800 xt
Processori shaders: 5120 contro 3840 della 7800 xt (33% in piu')
Consumo: 260 watt contro 300 watt della 7800 xt

Il prezzo per una e l'altra (considerando una 7800 xt buona) siamo intorno ai 600 euro. Costa uguale, consuma meno e va di piu'....bho

Costa 100€ in più (il 20%) a fronte di un 5% scarso. Non ha senso chiamarla 7900...

Freisar
21-11-2023, 14:00
Si sa quando incominceranno ad inserire l'fsr3 nei vari giochi tipo starfield?

belta
21-11-2023, 14:49
Si sa quando incominceranno ad inserire l'fsr3 nei vari giochi tipo starfield?

Non c'è alcuna roadmap a quanto sappia, per cui siamo fermi al "soon" che può suonare anche come una minaccia

Verro
21-11-2023, 23:08
Si sa quando incominceranno ad inserire l'fsr3 nei vari giochi tipo starfield?

Non si sa. È un po' vergognoso che lo abbiano annunciato un anno fa e a conti fatti, dopo un anno non è implementato in nessun gioco serio. Lo hanno buttato su un paio di giochi anonimi solo per poter dire che l'hanno rilasciato nel 2023 ma di fatto, hanno saltato il 2023 a piè pari. E tra 6-7 mesi dovrebbe uscire la 5090.
Fsr3 sembra ottimo eh, ma doveva uscire a Gennaio per avere davvero senso e sperare di contrastare Nvidia e il suo DLSS.

Ale55andr0
22-11-2023, 07:25
E tra 6-7 mesi dovrebbe uscire la 5090.


ma quando mai

Cutter90
22-11-2023, 08:17
Non si sa. È un po' vergognoso che lo abbiano annunciato un anno fa e a conti fatti, dopo un anno non è implementato in nessun gioco serio. Lo hanno buttato su un paio di giochi anonimi solo per poter dire che l'hanno rilasciato nel 2023 ma di fatto, hanno saltato il 2023 a piè pari. E tra 6-7 mesi dovrebbe uscire la 5090.
Fsr3 sembra ottimo eh, ma doveva uscire a Gennaio per avere davvero senso e sperare di contrastare Nvidia e il suo DLSS.

Concordo su tutto, ma la serie 5000 la vedremo minimo tra 1 anno

belta
22-11-2023, 08:44
Ihmo l'FSR3 va classificato come psy ops della Cia :O

DANY 76
22-11-2023, 14:36
Non si sa. È un po' vergognoso che lo abbiano annunciato un anno fa e a conti fatti, dopo un anno non è implementato in nessun gioco serio. Lo hanno buttato su un paio di giochi anonimi solo per poter dire che l'hanno rilasciato nel 2023 ma di fatto, hanno saltato il 2023 a piè pari. E tra 6-7 mesi dovrebbe uscire la 5090.
Fsr3 sembra ottimo eh, ma doveva uscire a Gennaio per avere davvero senso e sperare di contrastare Nvidia e il suo DLSS.

solo "un pò vergognoso?"questo per me è un epic fail da parte di amd.

belta
22-11-2023, 14:46
solo "un pò vergognoso?"questo per me è un epic fail da parte di amd.

Io butto tutto a ridere ma in effetti è una tragica e patetica farsa e lo dico da non utilizzatore di upscaler vari.

Francamente piuttosto di presentare cose e poi lasciare la situazione in stato di abbandono sarebbe stato meglio dire all'utenza che tutte le risorse sarebbero state impegnate per la prossima architettura, ma questa è la mia visione da utente/o.

DANY 76
22-11-2023, 15:11
Io butto tutto a ridere ma in effetti è una tragica e patetica farsa e lo dico da non utilizzatore di upscaler vari.

Francamente piuttosto di presentare cose e poi lasciare la situazione in stato di abbandono sarebbe stato meglio dire all'utenza che tutte le risorse sarebbero state impegnate per la prossima architettura, ma questa è la mia visione da utente/o.

semplici specchietti per le allodole puro marketing per far sembrare all'utente che AMD è competitiva e riesce a stare al passo con nvidia hanno dimostrato poi l'esatto contrario,sinceramente la casa rossa ultimamente mi ha deluso parecchio,se continua così il prossimo pc misà che sarà intel+nvidia...

Cutter90
22-11-2023, 15:33
semplici specchietti per le allodole puro marketing per far sembrare all'utente che AMD è competitiva e riesce a stare al passo con nvidia hanno dimostrato poi l'esatto contrario,sinceramente la casa rossa ultimamente mi ha deluso parecchio,se continua così il prossimo pc misà che sarà intel+nvidia...

Ma guarda, Lato CPU sta andando davvero bene. E' lato Gpu che.......
sembra proprio che puntino sulle cpu o che lato gpu "non gliela fanno" a stare dietro ad Nvidia

DANY 76
22-11-2023, 15:35
Ma guarda, Lato CPU sta andando davvero bene. E' lato Gpu che.......
sembra proprio che puntino sulle cpu o che lato gpu "non gliela fanno" a stare dietro ad Nvidia

si i ryzen 7000 vanno molto bene ma nn si evolvono,rimangono su un concetto vecchio le cpu ibride intel sono molto più sfruttabili e polivalenti.

Cutter90
22-11-2023, 15:49
si i ryzen 7000 vanno molto bene ma nn si evolvono,rimangono su un concetto vecchio le cpu ibride intel sono molto più sfruttabili e polivalenti.

Si beh, io parlo di gaming principalmente

DANY 76
22-11-2023, 16:09
Si beh, io parlo di gaming principalmente

è troppo riduttivo relegare le cpu solo al gaming.

Windtears
22-11-2023, 16:10
Io butto tutto a ridere ma in effetti è una tragica e patetica farsa e lo dico da non utilizzatore di upscaler vari.

Francamente piuttosto di presentare cose e poi lasciare la situazione in stato di abbandono sarebbe stato meglio dire all'utenza che tutte le risorse sarebbero state impegnate per la prossima architettura, ma questa è la mia visione da utente/o.

non lo so, a me pare che a volte perdiamo la bussola spinti dalla "moda" della monopolista... io invece vedo che sto 2023 amd ha tirato fuori driver per il supporto ai giochi al dayone senza troppi patemi d'animo e non ci sono stati casi in cui "non posso far partire il gioco" ogni due per tre (ricordo giusto ratchet and clank e solo con rt).

fsr3 come il 2 non è la priorità per me, io ho pagato per giocare il più possibile senza problemi e amd ormai non ha niente da far rimpiangere al suo concorrente da anni.


Poi che abbiano sbagliato nella propaganda, sono d'accordo, soprattutto spinti dal voler "contrastare nvidia a tutti i costi" ma...

alla fine in sto 2023 quanti sono i giochi con dlss 3.5? E anche se di più di quanti supportano fsr3 (e ci vuole veramente poco), abbiamo tutti sta voglia di pagare per avere frame fasulli e comunque di doverlo usare su quei giochi in cui dobbiamo fare almeno 70+ fps?

io sono più incazzato per l'antilag+ tolto dal driver quello si che è stato un brutto fail (spinti dalla sollevazione mediatica come per quel SINGOLO caso di un utente di una rivista ammerigana con il factory reset), a me che non frega un kazzo del competitivo han tolto la possibilità di scelta e questo si che mi fa incavolare.

Posso essere comunque d'accordo nel voler vedere più giochi supportati con l'upscale inteso come NLAA, piuttosto che tirare fuori mensilmente una nuova versione beta del driver afmf ma questo vuol comunque dire che si stanno impegnando su rdna3 e non solo sulla prossima generazione.

Mia opinione, vediamo che tirano fuori con i driver di dicembre...

ninja750
22-11-2023, 16:11
semplici specchietti per le allodole puro marketing per far sembrare all'utente che AMD è competitiva e riesce a stare al passo con nvidia hanno dimostrato poi l'esatto contrario,sinceramente la casa rossa ultimamente mi ha deluso parecchio,se continua così il prossimo pc misà che sarà intel+nvidia...

rimane il fatto che FSR3 non lo deve implementare AMD ma lo devono implementare le sh

ninja750
22-11-2023, 16:13
è troppo riduttivo relegare le cpu solo al gaming.

io la uso solo per gaming :fagiano:

ah no, anche firefox e office :O dove serve una potenza computazionale ridicola

DANY 76
22-11-2023, 16:37
io la uso solo per gaming :fagiano:

ah no, anche firefox e office :O dove serve una potenza computazionale ridicola

rimane il fatto che FSR3 non lo deve implementare AMD ma lo devono implementare le sh

nn me va de risponne ai commenti scemi buttati li tanto per fa qualcosa,c'è un motivo per cui l'fsr3 nn viene implementato sui giochi ed è colpa di amd,informati ciao.

davide155
22-11-2023, 17:25
alla fine in sto 2023 quanti sono i giochi con dlss 3.5?
Se parli di ray reconstruction i giochi supportati sono 5 dato che è stato presentato adesso.
Mentre se parli del framegen allora i titoli sono molti di più. Basti pensare anche che nvidia ha creato un tool appositamente per essere implementato nell'unreal engine il che lo renderà uno standard per molti giochi futuri dato lo sviluppo massivo di titoli su questo motore grafico.
Senza contare i titoli già usciti che stanno rendendo compatibili con delle patch, ultimi fra tutti, jedi survivor, starfield, atomic heart.

E anche se di più di quanti supportano fsr3 (e ci vuole veramente poco), abbiamo tutti sta voglia di pagare per avere frame fasulli e comunque di doverlo usare su quei giochi in cui dobbiamo fare almeno 70+ fps?
Ancora non capisco il perchè vi fossilizzate sulle parole "frame fasulli", "risoluzioni fasulle" ecc.
Se il risultato è pari ed in molte situazioni anche migliore della "originale", come mai bisogna fermarci solo sulla descrizione di tale tecnica e non ci focalizziamo sul risultato finale che è di tutto rispetto?
Si parla di avere il triplo di fps con un click, con una perdita visiva (dove presente) di pochi punti percentuali davvero.

Ok essere simpatizzanti di un marchio o un altro, ognuno fa e pensa ciò che vuole, ci mancherebbe, ma perchè ostinarsi così tanto a rifiutare un miglioramento positivo?

belta
22-11-2023, 17:27
fsr3 come il 2 non è la priorità per me, io ho pagato per giocare il più possibile senza problemi e amd ormai non ha niente da far rimpiangere al suo concorrente da anni

Guarda io sto da Dio con la configurazione in firma e ad oggi non la cambierei con nulla e gli upscaler non li uso ;)

Come ho detto prima ihmo Amd dovrebbe solo parlare di meno, eviterebbe magre figure e basta, tutto qua.

è troppo riduttivo relegare le cpu solo al gaming.


dipende tutto dall'uso, io con il Pc lavoro (excel, word e browser) e gioco, il 7800x3d volendo mi può durare 10 anni, ne ho fatti 7 di anni con il 4790k...

Windtears
22-11-2023, 18:40
rimane il fatto che FSR3 non lo deve implementare AMD ma lo devono implementare le sh

però è amd ad aver detto che è facile da implementare e se ne escono con starfield (titolo sponsorizzato amd) che esce solo con fsr2... ah giusto è bethesda quelli che nel 2011 con skyrim manco supportavano le cpu a 64bit e 4gb di ram... :(

altra scelta infelice è aver lanciato fsr3 con due titoli tutt'altro che memorabili e non aver rotto irkazzo con cyberpunk phantom liberty (titolo nvidia, ma a parti invertite continuo a non sentire le levate di scudo come con starfield e dlss)

amd ha bisogno di battere i pugni sul tavolo e non ne è capace con ste software house pigre che vendono l'upscale come soluzione per avere 60fps... poi però regala il 7800x3d a quel merdone di Digital Foundry che per ringraziarla fa vedere che ci sono giochi che lo stuttering ce l'hanno anche con la cache perché sono programmati col kulo e non sono in grado di gestire dopo 20 anni di unreal engine la shader compilation.... yey. :P

kiwivda
22-11-2023, 20:06
però è amd ad aver detto che è facile da implementare e se ne escono con starfield (titolo sponsorizzato amd) che esce solo con fsr2... ah giusto è bethesda quelli che nel 2011 con skyrim manco supportavano le cpu a 64bit e 4gb di ram... :(

altra scelta infelice è aver lanciato fsr3 con due titoli tutt'altro che memorabili e non aver rotto irkazzo con cyberpunk phantom liberty (titolo nvidia, ma a parti invertite continuo a non sentire le levate di scudo come con starfield e dlss)

amd ha bisogno di battere i pugni sul tavolo e non ne è capace con ste software house pigre che vendono l'upscale come soluzione per avere 60fps... poi però regala il 7800x3d a quel merdone di Digital Foundry che per ringraziarla fa vedere che ci sono giochi che lo stuttering ce l'hanno anche con la cache perché sono programmati col kulo e non sono in grado di gestire dopo 20 anni di unreal engine la shader compilation.... yey. :P


beh ma si sa che l'unreal è la pappa pronta per chi non ha voglia di sbattersi e cosa si pretende se queste sono le premesse.
È cosa ben nota a tutti, soprattutto quà dentro, che i motori proprietari nel 99% dei casi non hanno problemi di sorta evidenti e regalano capolavori, vedi Decima Engine, CryEngine, Star Engine, Red Engine, Northlight Engine, ecc...

Cutter90
22-11-2023, 22:03
è troppo riduttivo relegare le cpu solo al gaming.

Ma mica tanto. Il gaming è un aspetto fondamentale di chiunque abbia un pc. Molto più che usare la cpu per fare calcoli complessi con programmi di nicchia...

Cutter90
23-11-2023, 08:19
Se parli di ray reconstruction i giochi supportati sono 5 dato che è stato presentato adesso.
Mentre se parli del framegen allora i titoli sono molti di più. Basti pensare anche che nvidia ha creato un tool appositamente per essere implementato nell'unreal engine il che lo renderà uno standard per molti giochi futuri dato lo sviluppo massivo di titoli su questo motore grafico.
Senza contare i titoli già usciti che stanno rendendo compatibili con delle patch, ultimi fra tutti, jedi survivor, starfield, atomic heart.


Ancora non capisco il perchè vi fossilizzate sulle parole "frame fasulli", "risoluzioni fasulle" ecc.
Se il risultato è pari ed in molte situazioni anche migliore della "originale", come mai bisogna fermarci solo sulla descrizione di tale tecnica e non ci focalizziamo sul risultato finale che è di tutto rispetto?
Si parla di avere il triplo di fps con un click, con una perdita visiva (dove presente) di pochi punti percentuali davvero.

Ok essere simpatizzanti di un marchio o un altro, ognuno fa e pensa ciò che vuole, ci mancherebbe, ma perchè ostinarsi così tanto a rifiutare un miglioramento positivo?

Sottoscrivo tutto, è proprio così che funziona nella realtà, nelle analisi e negli utilizzi veri. Ma sono appigli che molti si danno per non giustificare un passaggio ad Nvidia e/o giustificare il proprio acquisto.
Semplice. Perchè non l'hanno provato. Sembra una banalità, ma la maggior parte delle volte è gente che non ha provato nulla, non ha visto quando il dlss sia superiore al FSR e quanto il FG se usato nelle giuste condizioni faccia la differenza, per lo meno il FG nvidia, per ora.

non lo so, a me pare che a volte perdiamo la bussola spinti dalla "moda" della monopolista... io invece vedo che sto 2023 amd ha tirato fuori driver per il supporto ai giochi al dayone senza troppi patemi d'animo e non ci sono stati casi in cui "non posso far partire il gioco" ogni due per tre (ricordo giusto ratchet and clank e solo con rt).

Ma se solo nell'ultimo periodo i driver amd sono stati uno' "turbolenti"? ANti-lag, FG che funziona male ecc ecc... amd lato driver è sempre stata un passo indietro.

fsr3 come il 2 non è la priorità per me, io ho pagato per giocare il più possibile senza problemi e amd ormai non ha niente da far rimpiangere al suo concorrente da anni.

Se tu giochi solo in raster, solo ai giochi in cui i driver D1 vanno bene e se non usi scaler nuovi si, amd è uguale ad nvidia. Ad un prezzo, però molto simile a quest'ultima.

Poi che abbiano sbagliato nella propaganda, sono d'accordo, soprattutto spinti dal voler "contrastare nvidia a tutti i costi" ma...

alla fine in sto 2023 quanti sono i giochi con dlss 3.5? E anche se di più di quanti supportano fsr3 (e ci vuole veramente poco), abbiamo tutti sta voglia di pagare per avere frame fasulli e comunque di doverlo usare su quei giochi in cui dobbiamo fare almeno 70+ fps?

Ma guarda, se AMD per un motivo o per l'altro non ce la fa a rincorrene Nvidia, allora deve puntare forte su altro. Cioè, non può non rincorrere nvidia e nemmeno avere qualcosa di "esclusivo" che la faccia ingranare.... e offrire schede quasi allo stesso prezzo di nvidia. Non vuoi puntare sul RT, cosa folle nel 2023, ma va beh. Perfetto, allora in restar a parità di fascia DEVI andare un 30/40 % in più. Invece spesso anche in raster va uguale se non peggio. AMD purtroppo non ha nulla di reale come tecnologia che non sia un inseguimento, non all'altezza, di Nvidia

io sono più incazzato per l'antilag+ tolto dal driver quello si che è stato un brutto fail (spinti dalla sollevazione mediatica come per quel SINGOLO caso di un utente di una rivista ammerigana con il factory reset), a me che non frega un kazzo del competitivo han tolto la possibilità di scelta e questo si che mi fa incavolare.

Posso essere comunque d'accordo nel voler vedere più giochi supportati con l'upscale inteso come NLAA, piuttosto che tirare fuori mensilmente una nuova versione beta del driver afmf ma questo vuol comunque dire che si stanno impegnando su rdna3 e non solo sulla prossima generazione.

Mia opinione, vediamo che tirano fuori con i driver di dicembre...



rimane il fatto che FSR3 non lo deve implementare AMD ma lo devono implementare le sh
Ragionamento che ci potrebbe pure stare il tuo. Allora come mai il DLSS invece è implementato mooolto di più? Come mai il DLSS, metodo che funziona solo sulle nvidia dalle 2000 in su (con FG esclusiva delle 4000) è più comune di FSR che dovrebe averlo anche il tostapane di casa mia? le cose sono due:
- AMD non spinge correttamente la tecnologia
- Le SH ritengonche FSR non sia fondamentale perchè il miglioramento grafico/prestazioni non è così eclatante come con DLSS

Queste le due ragioni, secondo me. Sentiamo le tue :)

Gyammy85
23-11-2023, 09:42
L'importanza dell'upscaling è legata al fatto che siccome ci sta investendo nvidia è una killer feature, del resto fsr3 va troppo bene per farci i video comparativi a manetta
Poi i giochetti da 4 soldi dove amd lo ha inserito per prima dipendono dal fatto che le software house con cui hanno la partnership son quelle, e non credo che amd sia responsabile del lato creativo, diciamo che sono le solite sparate da forum
Se domani amd fa la partnership con cdproject perché sono i migliori al mondo dal 2011 senza se e senza ma fabbricatori di milardi e di sogni, poi se ne escono con un battle royale ue5 mucche vs fagiani non sarà colpa di amd, o forse si, sicuramente nei forum si
Tralasciando il fatto che il motivo per cui questi sono giochetti da 4 soldi per non dire altro è perché ci giocano i soliti quattro youtuber col reverse marketing

Cutter90
23-11-2023, 10:17
L'importanza dell'upscaling è legata al fatto che siccome ci sta investendo nvidia è una killer feature, del resto fsr3 va troppo bene per farci i video comparativi a manetta
Poi i giochetti da 4 soldi dove amd lo ha inserito per prima dipendono dal fatto che le software house con cui hanno la partnership son quelle, e non credo che amd sia responsabile del lato creativo, diciamo che sono le solite sparate da forum
Se domani amd fa la partnership con cdproject perché sono i migliori al mondo dal 2011 senza se e senza ma fabbricatori di milardi e di sogni, poi se ne escono con un battle royale ue5 mucche vs fagiani non sarà colpa di amd, o forse si, sicuramente nei forum si
Tralasciando il fatto che il motivo per cui questi sono giochetti da 4 soldi per non dire altro è perché ci giocano i soliti quattro youtuber col reverse marketing

Al massimo è il contrario. Siccome Nvidia ha capito che il dlss e il FG sono KA ci sta investendo massicciamente.
AMD sceglie con chi avere le partenrship. Se le sue partnership non sono buone come marketing e/o qualità la colpa è anche e soprattutto sua.
AMD durante lo sviluppo dei giochi guarda il lavoro che fanno le SH....

dominator84
23-11-2023, 10:29
L'importanza dell'upscaling è legata al fatto che siccome ci sta investendo nvidia è una killer feature, del resto fsr3 va troppo bene per farci i video comparativi a manetta
Poi i giochetti da 4 soldi dove amd lo ha inserito per prima dipendono dal fatto che le software house con cui hanno la partnership son quelle, e non credo che amd sia responsabile del lato creativo, diciamo che sono le solite sparate da forum
Se domani amd fa la partnership con cdproject perché sono i migliori al mondo dal 2011 senza se e senza ma fabbricatori di milardi e di sogni, poi se ne escono con un battle royale ue5 mucche vs fagiani non sarà colpa di amd, o forse si, sicuramente nei forum si
Tralasciando il fatto che il motivo per cui questi sono giochetti da 4 soldi per non dire altro è perché ci giocano i soliti quattro youtuber col reverse marketing

spe spe qui sbagli, aemmedì diventerebbe un must have su mucche vs fagiani :O

perchè i br con amd ci vanno a nozze, infatti enviddia ha dovuto ricorrere al dlss date le disastrose perf in raster su cod/warzone - dato di fatto, basta vedere beefy tech

maaaa certe bastonate da orbi

poi il marketing di nvidia non esiste, semplicemente si impone e impone le sue scelte... e banna chi evidenzia i difetti - vedi hwunbox ... alla fac ro carmine

ma non ho capito, cutter sarebbe l'owner del thread?
solitamente solo l'owner fa così tanti post nel proprio thread, e negli altri non ci va mai o si mostra poco
non è che tipo la dipendenza di quelli che non si staccano da instagram?

Gyammy85
23-11-2023, 10:31
Al massimo è il contrario. Siccome Nvidia ha capito che il dlss e il FG sono KA ci sta investendo massicciamente.
AMD sceglie con chi avere le partenrship. Se le sue partnership non sono buone come marketing e/o qualità la colpa è anche e soprattutto sua.
AMD durante lo sviluppo dei giochi guarda il lavoro che fanno le SH....

Ah ecco, hanno visto che il dlss è il futuro (ma guarda un pò), strano davvero, è nato prima l'uovo insomma
Quindi pensi che jensen va da cdproject a dire "no no guarda la lore non va bene fai così", ma sei serio?

Cutter90
23-11-2023, 10:44
Ah ecco, hanno visto che il dlss è il futuro (ma guarda un pò), strano davvero, è nato prima l'uovo insomma
Quindi pensi che jensen va da cdproject a dire "no no guarda la lore non va bene fai così", ma sei serio?

Ma no. Ovviamente parlavo dal punto di vista tecnico. ma è chiaro che si sceglie una SH sia perchè tecnicamente mostri le tue tecnologie, sia perchè il gioco possa vendere e andare bene per mostrarle.

Cutter90
23-11-2023, 10:46
spe spe qui sbagli, aemmedì diventerebbe un must have su mucche vs fagiani :O

perchè i br con amd ci vanno a nozze, infatti enviddia ha dovuto ricorrere al dlss date le disastrose perf in raster su cod/warzone - dato di fatto, basta vedere beefy tech

maaaa certe bastonate da orbi

poi il marketing di nvidia non esiste, semplicemente si impone e impone le sue scelte... e banna chi evidenzia i difetti - vedi hwunbox ... alla fac ro carmine

ma non ho capito, cutter sarebbe l'owner del thread?
solitamente solo l'owner fa così tanti post nel proprio thread, e negli altri non ci va mai o si mostra poco
non è che tipo la dipendenza di quelli che non si staccano da instagram?

Cutter è solo un utente che ha il diritto di esprimenrsi come tutti e, eventualmente, di correggere disinformazione e/o supportare le sue ideea.. come tutti. :)

dominator84
23-11-2023, 10:58
Cutter è solo un utente che ha il diritto di esprimenrsi come tutti e, eventualmente, di correggere disinformazione e/o supportare le sue ideea.. come tutti. :)

aahhh saresti un fact checker come quelli di "open"

ahhhh

https://us-tuna-sounds-images.voicemod.net/558792d8-6196-4e87-b8c3-ec7b706a4d76-1642785178025.png

Gundam1973
23-11-2023, 10:59
WOW....correggere disinformazione altrui...spargendo ovunque la propria!

Un must!

Gyammy85
23-11-2023, 11:07
spe spe qui sbagli, aemmedì diventerebbe un must have su mucche vs fagiani :O

perchè i br con amd ci vanno a nozze, infatti enviddia ha dovuto ricorrere al dlss date le disastrose perf in raster su cod/warzone - dato di fatto, basta vedere beefy tech

maaaa certe bastonate da orbi

poi il marketing di nvidia non esiste, semplicemente si impone e impone le sue scelte... e banna chi evidenzia i difetti - vedi hwunbox ... alla fac ro carmine

ma non ho capito, cutter sarebbe l'owner del thread?
solitamente solo l'owner fa così tanti post nel proprio thread, e negli altri non ci va mai o si mostra poco
non è che tipo la dipendenza di quelli che non si staccano da instagram?

Esattamente, facendo leva su pacchetti regalati a sviluppatori che hanno poca voglia di fare il loro lavoro

Cutter90
23-11-2023, 11:16
aahhh saresti un fact checker come quelli di "open"

ahhhh

https://us-tuna-sounds-images.voicemod.net/558792d8-6196-4e87-b8c3-ec7b706a4d76-1642785178025.png

WOW....correggere disinformazione altrui...spargendo ovunque la propria!

Un must!

Non deviamo il discorso facendo OT o member war, grazie. Se non avete altro da aggiungere all'argomento vorrei evitaste di commentare la mia presenza, per favore.

Si parlava di aspetti tecnici legati al FS3

DANY 76
23-11-2023, 15:19
Ma mica tanto. Il gaming è un aspetto fondamentale di chiunque abbia un pc. Molto più che usare la cpu per fare calcoli complessi con programmi di nicchia...

veramente nella totalità degli utenti che hanno il pc i gamer sono in minoranza.

Cutter90
23-11-2023, 15:47
veramente nella totalità degli utenti che hanno il pc i gamer sono in minoranza.

Rispetto a chi usa le cpu con programmi che la sfruittino in maniera dedicata? Ma quando mai..... anche chi gioca al Prato fiorito è un gamer eh :D

DANY 76
23-11-2023, 16:15
Rispetto a chi usa le cpu con programmi che la sfruittino in maniera dedicata? Ma quando mai..... anche chi gioca al Prato fiorito è un gamer eh :D

se...e la marmotta incarta la cioccolata...

Andy1111
23-11-2023, 17:45
Cutter è solo un utente che ha il diritto di esprimenrsi come tutti e, eventualmente, di correggere disinformazione e/o supportare le sue ideea.. come tutti. :)

Ma perchè vieni sempre qua a dire sempre le solite cose?

Che poi anche quando stai nei thread nvidia , non sai fare altro che buttare letame su AMD, ti piace nvidia ok lo abbiamo capito ma smettila.

https://www.hwupgrade.it/forum/showpost.php?p=48360299&postcount=11046

Così eviti di dire che non è vero

Raven
23-11-2023, 18:30
Ma perchè vieni sempre qua a dire sempre le solite cose?

Che poi anche quando stai nei thread nvidia , non sai fare altro che buttare letame su AMD, ti piace nvidia ok lo abbiamo capito ma smettila.


Esiste la ignore list! Peccato non funzioni sui quote, ma per il resto è una pacchia! :O
Io la uso su diversi utenti con estrema soddisfazione! :D

Cutter90
23-11-2023, 19:11
Ma perchè vieni sempre qua a dire sempre le solite cose?

Che poi anche quando stai nei thread nvidia , non sai fare altro che buttare letame su AMD, ti piace nvidia ok lo abbiamo capito ma smettila.

https://www.hwupgrade.it/forum/showpost.php?p=48360299&postcount=11046

Così eviti di dire che non è vero
Ah, e perché tu invece dici sempre le solite cose?

Ah perché addirittura ora neghiamo che AMD abbia avuto problemi driver, certamente più che nvidia? Andiamo bene....
Solo per dire l ultima... l antilag plus che non funziona?!
Dai su, siamo onesti

ninja750
24-11-2023, 09:49
però è amd ad aver detto che è facile da implementare e se ne escono con starfield (titolo sponsorizzato amd) che esce solo con fsr2... ah giusto è bethesda quelli che nel 2011 con skyrim manco supportavano le cpu a 64bit e 4gb di ram... :(

altra scelta infelice è aver lanciato fsr3 con due titoli tutt'altro che memorabili e non aver rotto irkazzo con cyberpunk phantom liberty (titolo nvidia, ma a parti invertite continuo a non sentire le levate di scudo come con starfield e dlss)


ma infatti il tafazzismo marketing di AMD è sotto gli occhi di tutti da anni, scelta infelice sia il ""lancio"" sia i partner scelti. per fortuna c'è l'implementazione da driver che a detta di chi l'ha provato funziona abbastanza bene, ma possiamo chiamarlo lancio quello che abbiamo visto?


amd ha bisogno di battere i pugni sul tavolo e non ne è capace con ste software house pigre che vendono l'upscale come soluzione per avere 60fps...

la questione è anche diversa, cioè praticamente tutti i giochi usciti >= 2021 supportano sia FSR che DLSS, la questione è quando vedremo il 3.0 implementato in quelli a venire visto che tolto cyberpunk quelli già usciti sicuramente non riceveranno patch per accontentare il "5% del parco GPU mondiale" (cit.)

belta
24-11-2023, 09:50
Propongo di rinominare la discussione in "AMD RASTER ENTHUSIAST" :O e visto che siamo "rossi" in prima pagina una bella foto stile cortina di ferro :O

Alekx
24-11-2023, 15:26
Ah, e perché tu invece dici sempre le solite cose?

Ah perché addirittura ora neghiamo che AMD abbia avuto problemi driver, certamente più che nvidia? Andiamo bene....
Solo per dire l ultima... l antilag plus che non funziona?!
Dai su, siamo onesti

A se e' per questo l'ANTI-LAG + funziona anche troppo bene visto che chi lo utilizzava veniva bannato per i benefici apportati da questa opzione.

Quindi prima di sparare a caso sarebbe il caso di informarsi.

Cutter90
24-11-2023, 15:43
A se e' per questo l'ANTI-LAG + funziona anche troppo bene visto che chi lo utilizzava veniva bannato per i benefici apportati da questa opzione.

Quindi prima di sparare a caso sarebbe il caso di informarsi.

Invece ti sbagli alla grande. L'anti lag plus non riduceva la latenza come dichiarato con FG, era proprio buggato. Cioè, lo so io che non lo uso....
Minuto 19:55

https://www.youtube.com/watch?v=jnUCYHvorrk&t=1535s

Verifichiamo le info primo di accusare, grazie. Io parlavo dell' ANti LAg + combinato con il FG

Alekx
24-11-2023, 16:06
Invece ti sbagli alla grande. L'anti lag plus non riduceva la latenza come dichiarato con FG, era proprio buggato. Cioè, lo so io che non lo uso....
Minuto 19:55

https://www.youtube.com/watch?v=jnUCYHvorrk&t=1535s

Verifichiamo le info primo di accusare, grazie. Io parlavo dell' ANti LAg + combinato con il FG

Come tecnologia funziona e come, se associata a FG e FSR3 potrebbe avere qualche "problema" (secondo il video e' ) MA sono comunque tecnologie nuove di pacca che non faranno altro che migliorarsi nel tempo e attualmente ancora non supportate in diversi giochi o sono supportate in malomodo.

Lato bug nessuno ne e' immune, NVIDIA compresa, quindi mi pare di parlare di ARIA Fritta quando si discute di questo, soprattutto perche' oramai con tutte le novita' in giro l'aggiornamento NV/AMD sono sempre sotto pressione per il rilascio di driver ottimizzati con rilasci a volte anche settimanali.

A64FX+DFI nF4
25-11-2023, 18:26
intanto si è scoperto lo scopo delle 7900 a un anno dalla presentazione

belta
25-11-2023, 18:30
intanto si è scoperto lo scopo delle 7900 a un anno dalla presentazione

sbancare in Cina? :asd:

DANY 76
25-11-2023, 18:47
intanto si è scoperto lo scopo delle 7900 a un anno dalla presentazione

io me la son comprata poichè son povero come "lammerda" e rivendendo la vecchia 6800 a peso d'oro + un buono amazon che avevo questa mi è venuta relativamente poco,ma a dirla tutta volevo una 4080....

A64FX+DFI nF4
25-11-2023, 19:20
io me la son comprata poichè son povero come "lammerda" e rivendendo la vecchia 6800 a peso d'oro + un buono amazon che avevo questa mi è venuta relativamente poco,ma a dirla tutta volevo una 4080....

ma io di solito tengo l'hardware finchè non vale più niente, non ho voglia di rivendere, quindi se ne riparla tra uno o due anni

sbancare in Cina? :asd:

così sembrerebbe:rolleyes:

Ale55andr0
25-11-2023, 19:21
Quando ho fatto il Pc in firma ho rimpianto la fine degli anni 90 con la GeForce 2 Gts a 900.000 Lire :asd:

beh se consideri il periodo, relativo potere d'acquisto etc 900mila carte era uno botto uguale. E a quei tempi uscivano ogni anno le gpu nuove... già ti pareva un ferrovecchio una volta scartato l'imballo :asd: Quando presi la TNT2 ultra TRENTADUE mega (i 24gb di oggi :sofico:) manco il tempo e già si parlava della rivoluzionaria Ge force 256 con T&L hardware. Che tempi, allora si che mi entusiasmavo per l'hardware e i giochi, era una scoperta/conquista continua.

intanto si è scoperto lo scopo delle 7900 a un anno dalla presentazione

costringermi all'acquisto mio malgrado venendo meno a mesi di perculi su quanto fosse/sia piazzata col culo? :asd:

Cmq il fatto che i prezzi non siano subito crollati dopo averla presa lo considero grasso che cola, di solito becco sempre l'impalata leggendaria su ste cose, dai che per due o tre mesi la scanso :asd:

Non dire cazzate, hai benchato e sei andato in giro a googlare per vedere se gli score erano in linea.... :D
Lo so...

non sto nemmeno giocando, ho lasciato a metà phantom liberty e non ho voglia di giocare a nulla :asd:

Xiphactinus
25-11-2023, 20:18
Primi mesi anno 2000 .... ancora lo ricordo....
...presi al volo la Asus V6800 DELUXE
una Geforce 256 DDR con il kit occhialini 3D ATTIVI !!! (3D VISION?)

ancora ricordo le nottate in bianco con Magic Carpet in 3D!! :D

Se non sbaglio pagata 600000Lire

belta
25-11-2023, 20:37
beh se consideri il periodo, relativo potere d'acquisto etc 900mila carte era uno botto uguale. E a quei tempi uscivano ogni anno le gpu nuove... già ti pareva un ferrovecchio una volta scartato l'imballo :asd: Quando presi la TNT2 ultra TRENTADUE mega (i 24gb di oggi :sofico:) manco il tempo e già si parlava della rivoluzionaria Ge force 256 con T&L hardware. Che tempi, allora si che mi entusiasmavo per l'hardware e i giochi, era una scoperta/conquista continua.



Si, era letteralmente un altro mondo rispetto ad oggi e che giochi che uscivano, ricordo ancora l'impatto che ebbi al limite del trauma (positivo) con Sacrifice, Ground Control, Rainbow Six ... il primo Half Life :eek:


Primi mesi anno 2000 .... ancora lo ricordo....
...presi al volo la Asus V6800 DELUXE
una Geforce 256 DDR con il kit occhialini 3D ATTIVI !!! (3D VISION?)

ancora ricordo le nottate in bianco con Magic Carpet in 3D!! :D

Se non sbaglio pagata 600000Lire

Me la ricordo bene perché ne rimase una per anni nello scaffale di un negozio di elettronica nel centro commerciale a pochi Km da casa mia :asd: , ancora quando ci si andava sempre perché le vendite online non esistevano :(

Alekx
26-11-2023, 12:23
Io invece acquisatai proprio la Geforce 256 DDR con il kit occhialini 3D ATTIVI con gli occhiali 3D VISION, la presi da un mio amico che aveva il neozio di PC e la pagai a rate. 600.000 Lire, tantissimo ma ero arrapato come un toro.

Saimons
26-11-2023, 12:32
Non dimenticherò mai un mio amico che, presa la prima 3dfx dagli USA (doveva ancora uscire in EU), mi chiamò per mostrarmi Tomb Raider, Quake e Descent accelerati...mascella per terra sia per la fluidità che per il filtro bilineare che rendeva la versione PSX una brutta copia :asd:

dominator84
26-11-2023, 13:14
Non dimenticherò mai un mio amico che, presa la prima 3dfx dagli USA (doveva ancora uscire in EU), mi chiamò per mostrarmi Tomb Raider, Quake e Descent accelerati...mascella per terra sia per la fluidità che per il filtro bilineare che rendeva la versione PSX una brutta copia :asd:

3dfx vodoo 3000, o 300.000 lire o 399.000 non ricordo, appena uscita con in bandol anrial, presa al CHL (centro hl)

al tempo in italia pagavano bene anche i lavapiatti, ovviamente ero troppo piccolo per lavorare

diciamo che in amicizia 50.000 lire a servizio, e in qualche settimana me la son pagata (solo finesettimana)

per dire che al tempo potevi anche farti un patetic filippo, poco alla volta si intende... ma se ti rimbocchi 4 maniche puoi fare tutto anche oggi. Certo che se sei nella P.A. non ti puoi aspettare grandi stipendi. Sicurezza sì, ma non grandi stipendi... va da sè che poi non ti devi lamentare se il tuo amico prende 200 euro di piu' facendo l'insegnante di sostegno e lavorando 18 ore settimanali... vabè son storie durante una chiaccherata tra amici al San Paolo tra un tagliere, un panino e qualche codadigallo

ma non stavamo parlando di FSR? :stordita:

belta
26-11-2023, 13:33
ma non stavamo parlando di FSR? :stordita:

Fsr? mai sentito, cos'è un Amaro alle erbe? :stordita:

p.s. ben tornato dal ban

BelzebV
26-11-2023, 15:42
In questo th si parla piu ei altro, che della 7000 series

Verro
28-11-2023, 13:41
Comunque regà, solo per confermare una cosa che già sospettavo:
Sono due settimane che gioco su uno Xiaomi Mi2k qhd 165hz IPS.
Non cambia NIENTE dal mio vecchio fhd 60hz. Cambia solo la fluidità su Windows, per il resto, mentre gioco a Rainbow, non si nota NESSUNA differenza nella fluidità o definizione nonostante faccia, in game, 140 FPS. Ho provato Forza, Tomb Raider... Non cambia niente rispetto a quello che avevo prima.
Forse, messi accanto, qualcosa cambia, ma a memoria o primo impatto, nessun miglioramento.
PER ME (e questo è fondamentale, mia opinione) sono solo fisse. Un fhd basta e avanza.

belta
28-11-2023, 13:52
Comunque regà, solo per confermare una cosa che già sospettavo:
Sono due settimane che gioco su uno Xiaomi Mi2k qhd 165hz IPS.
Non cambia NIENTE dal mio vecchio fhd 60hz. Cambia solo la fluidità su Windows, per il resto, mentre gioco a Rainbow, non si nota NESSUNA differenza nella fluidità o definizione nonostante faccia, in game, 140 FPS. Ho provato Forza, Tomb Raider... Non cambia niente rispetto a quello che avevo prima.
Forse, messi accanto, qualcosa cambia, ma a memoria o primo impatto, nessun miglioramento.
PER ME (e questo è fondamentale, mia opinione) sono solo fisse. Un fhd basta e avanza.

Verro beato te che non ti accorgi di certe cose :fagiano:

ninja750
28-11-2023, 13:53
vista l'ultima frase non ho capito se sei deluso dalla risoluzione o dagli fps?

se parli di risoluzione, su un 27" 1440p il dot pitch è circa 0.21 quindi è decisamente meglio di un classico 1080p su 24" .. cosa avevi prima?

se invece la questione è relativa ai fotogrammi percepiti è impossibile che non noti differenze tra poniamo 60 e 120, basta che imposti l'attuale monitor a 60hz attivando vsync e tornando poi dopo a 120 vedrai un mondo di differenza (usi freesync vero?)

poi chiaro che in alcuni giochi la cosa si nota di più che in altri, e che si noti più la differenza tra 45 vs 75 che tra 75 vs 120

FrancoBit
28-11-2023, 13:55
Comunque regà, solo per confermare una cosa che già sospettavo:
Sono due settimane che gioco su uno Xiaomi Mi2k qhd 165hz IPS.
Non cambia NIENTE dal mio vecchio fhd 60hz. Cambia solo la fluidità su Windows, per il resto, mentre gioco a Rainbow, non si nota NESSUNA differenza nella fluidità o definizione nonostante faccia, in game, 140 FPS. Ho provato Forza, Tomb Raider... Non cambia niente rispetto a quello che avevo prima.
Forse, messi accanto, qualcosa cambia, ma a memoria o primo impatto, nessun miglioramento.
PER ME (e questo è fondamentale, mia opinione) sono solo fisse. Un fhd basta e avanza.

Molto strano, personalmente il passaggio da 60hz a 120/144 è stato una delle più grandi meraviglie che abbia mai riscontrato in gaming

Verro
28-11-2023, 14:02
vista l'ultima frase non ho capito se sei deluso dalla risoluzione o dagli fps?

se parli di risoluzione, su un 27" 1440p il dot pitch è circa 0.21 quindi è decisamente meglio di un classico 1080p su 24" .. cosa avevi prima?

se invece la questione è relativa ai fotogrammi percepiti è impossibile che non noti differenze tra poniamo 60 e 120, basta che imposti l'attuale monitor a 60hz attivando vsync e tornando poi dopo a 120 vedrai un mondo di differenza (usi freesync vero?)

poi chiaro che in alcuni giochi la cosa si nota di più che in altri, e che si noti più la differenza tra 45 vs 75 che tra 75 vs 120

Entrambi. Risoluzione o fps, zero differenze.
FORSE mettendoli vicini, forse si vede, ma che senso ha? La differenza la devo percepire, altrimenti tanto valeva restare con il fhd, perché come qualità di gioco è esattamente la stessa. L'unica differenza vera è in ambiente Windows, dove vedo il mouse più fluido, ma in game non cambia niente. E giochi FPS o giochi di guida. Zero.
Volete la mia idea? No. Vabbè, è uguale:
La verità è che quando spendi 2-300€ di monitor (o più) tu DEVI vedere la differenza, anche dove non c'è. Altrimenti saresti uno scemo a spendere soldi inutilmente.

belta
28-11-2023, 14:06
La verità è che quando spendi 2-300€ di monitor (o più) tu DEVI vedere la differenza, anche dove non c'è. Altrimenti saresti uno scemo a spendere soldi inutilmente.

No ma infatti, il monitor che uso adesso è praticamente uguale al primo Samsung TN 1080p@60hz che ho preso 15 anni fa, uguali proprio :sbonk:

belta
28-11-2023, 14:07
Molto strano, personalmente il passaggio da 60hz a 120/144 è stato una delle più grandi meraviglie che abbia mai riscontrato in gaming

Ricordo ancora il passaggio da 60hz a 144hz con il G-Sync e i pannelli erano entrambi due TN di fascia medio bassa

Saved_ita
28-11-2023, 14:07
Verro beato te che non ti accorgi di certe cose :fagiano:

Basta arrivare ai 50 ma già sui 40 e a partire dai 30 si inizia non avere le capacità fisiche.

Se poi si inizia a considerare la differenza tra vedere e percepire, assunto che tanto, il nostro cervello, oltre 73fps non li può gestire (https://www.healthline.com/health/human-eye-fps#human-vs-animal-vision) (percepisci l'immagine ma non sei in grado di "capirla") è abbastanza plausibile che quel limite lo si raggiunga anche prima.

Quindi a meno che non si abbia ereditato qualche gene da aquile reali meglio smettere con gli fps superati i 30.

FrancoBit
28-11-2023, 14:17
Ricordo ancora il passaggio da 60hz a 144hz con il G-Sync e i pannelli erano entrambi due TN di fascia medio bassa

Io cadevo dal pero, mai dato peso alla cosa, lo vidi da un mio amico una sera, mi si aprirono gli occhi lol, ovviamente dopo poco il portafogli :oink:

belta
28-11-2023, 14:18
Quindi a meno che non si abbia ereditato qualche gene da aquile reali meglio smettere con gli fps superati i 30.

https://www.youtube.com/watch?v=vbVAgL4yfKg

@Saved ma serio? :coffee:

Saved_ita
28-11-2023, 14:56
https://www.youtube.com/watch?v=vbVAgL4yfKg

@Saved ma serio? :coffee:

Tu no?

Scherzi a parte ovviamente si riferiva al gioco online o più precisamente al competitivo.

Al buio della propria cameretta/soggiorno ognuno può illudersi di essere un fenomeno un po' con qualunque cosa e a prescindere da qualunque condizione oggettiva.

... mi viene solo un dubbio... hai capito che "30, 40 e 50" sono gli anni compiuti vero?

belta
28-11-2023, 15:01
... mi viene solo un dubbio... hai capito che "30, 40 e 50" sono gli anni compiuti vero?

No, si stava parlando in generale di FPS e nel tuo post non era indicata nessuna unità di misura, ho dato per scontato fossero FPS ma in effetti potevano essere anche caspi di banane :O

FrancoBit
28-11-2023, 15:02
Tu no?

Scherzi a parte ovviamente si riferiva al gioco online o più precisamente al competitivo.

Al buio della propria cameretta/soggiorno ognuno può illudersi di essere un fenomeno un po' con qualunque cosa e a prescindere da qualunque condizione oggettiva.

... mi viene solo un dubbio... hai capito che "30, 40 e 50" sono gli anni compiuti vero?

Io ti giuro che avevo preso i 30,40,50 per "frames per secondo" :doh:

djsnake
28-11-2023, 15:14
Oddio, la differenza per me si nota nonostante non sia un'aquila e abbia passato i 40, sia per gli fps (ovviamente come giustamente detto da ninja750, molto di più passando da 45 a 75 che a livelli più alti) ma soprattutto per la risoluzione.
Per me passare da fullhd a 1440 è già stato un grande miglioramento

Saved_ita
28-11-2023, 15:37
Oddio, la differenza per me si nota nonostante non sia un'aquila e abbia passato i 40, sia per gli fps (ovviamente come giustamente detto da ninja750, molto di più passando da 45 a 75 che a livelli più alti) ma soprattutto per la risoluzione.
Per me passare da fullhd a 1440 è già stato un grande miglioramento

Questo è assolutamente corretto.

Come indicato nell'articolo, tendenzialmente fino a 75 fps il nostro cervello può "interpretare" l'immagine e da questa soglia si scende in base a condizioni fisiologiche (predisposizioni genetiche, età ed allenamento).
Sopra questa soglia si parla di "percezione" (il tuo cervello percepisce una variazione nell'immagine, non sai cos'è ma c'è, tipo inception, il tuo cervello ti avvisa che c'è qualcosa di "strano").
Allenare questa percezione è quello che fanno i giocatori competitivi (o semplicemente quelli molto bravi).

Ci sono altri studi che dimostrano che questa capacità è strettamente legata all'età e allenamento del soggetto (oltre ovviamente alla predisposizione genetica).

Sempre altri studi dimostrano come invece l'occhio umano sia specializzato nell'individuare i dettagli (lo si dice anche nell'articolo postato) e questa capacità sia molto più resiliente all'avanzamento dell'età.
Per questo più o meno chiunque, messo nelle giuste condizioni (distanza del monitor, illuminazione ambientale, risoluzione dello schermo, nessun disturbo visivo patologico) può apprezzare un miglioramento della qualità come hai fatto tu nel passaggio al 2k o aumentando i dettagli grafici o i sistemi di calcolo dell'illuminazione (sono tutti escamotage per limitare l'impulso innato del nostro cervello ad avvisarci della "finzione" che vediamo).

Verro
28-11-2023, 15:45
Vabbè. Avrò problemi agli occhi, io non vedo differenze.

Personalmente? Penso che la "differenza" la faccia il marketing che fa credere di avere bisogno di queste migliorie che tali non sono. Come quelli che passano da iPhone 14pro al 15 e allora wow o come i fissati per il raytracing che per apprezzarlo devono fermarsi a guardare le pozzanghere ma mentre giochi non cambia niente.
Ah sì, a Luglio ho preso una 3070 usata. L'ho rivenduta dopo 2 settimane e mi sono preso una 5700xt, perché non c'era differenza apprezzabile.

Come fanno a giustificare i 2000€ di scheda video sennò?

FrancoBit
28-11-2023, 15:58
Vabbè. Avrò problemi agli occhi, io non vedo differenze.

Personalmente? Penso che la "differenza" la faccia il marketing che fa credere di avere bisogno di queste migliorie che tali non sono. Come quelli che passano da iPhone 14pro al 15 e allora wow o come i fissati per il raytracing che per apprezzarlo devono fermarsi a guardare le pozzanghere ma mentre giochi non cambia niente.
Ah sì, a Luglio ho preso una 3070 usata. L'ho rivenduta dopo 2 settimane e mi sono preso una 5700xt, perché non c'era differenza apprezzabile.

Come fanno a giustificare i 2000€ di scheda video sennò?

Sulla soggettività non metto parola assolutamente... Ma sulla tesi che tutti quelli che acquistano hardware di un certo livello per poter sfruttare monitor ad alto refresh e che notano differenze siano storditi mi sembra un po' difficile :stordita:

Cutter90
28-11-2023, 16:19
Comunque regà, solo per confermare una cosa che già sospettavo:
Sono due settimane che gioco su uno Xiaomi Mi2k qhd 165hz IPS.
Non cambia NIENTE dal mio vecchio fhd 60hz. Cambia solo la fluidità su Windows, per il resto, mentre gioco a Rainbow, non si nota NESSUNA differenza nella fluidità o definizione nonostante faccia, in game, 140 FPS. Ho provato Forza, Tomb Raider... Non cambia niente rispetto a quello che avevo prima.
Forse, messi accanto, qualcosa cambia, ma a memoria o primo impatto, nessun miglioramento.
PER ME (e questo è fondamentale, mia opinione) sono solo fisse. Un fhd basta e avanza.

Entrambi. Risoluzione o fps, zero differenze.
FORSE mettendoli vicini, forse si vede, ma che senso ha? La differenza la devo percepire, altrimenti tanto valeva restare con il fhd, perché come qualità di gioco è esattamente la stessa. L'unica differenza vera è in ambiente Windows, dove vedo il mouse più fluido, ma in game non cambia niente. E giochi FPS o giochi di guida. Zero.
Volete la mia idea? No. Vabbè, è uguale:
La verità è che quando spendi 2-300€ di monitor (o più) tu DEVI vedere la differenza, anche dove non c'è. Altrimenti saresti uno scemo a spendere soldi inutilmente.

Vabbè. Avrò problemi agli occhi, io non vedo differenze.

Personalmente? Penso che la "differenza" la faccia il marketing che fa credere di avere bisogno di queste migliorie che tali non sono. Come quelli che passano da iPhone 14pro al 15 e allora wow o come i fissati per il raytracing che per apprezzarlo devono fermarsi a guardare le pozzanghere ma mentre giochi non cambia niente.
Ah sì, a Luglio ho preso una 3070 usata. L'ho rivenduta dopo 2 settimane e mi sono preso una 5700xt, perché non c'era differenza apprezzabile.

Come fanno a giustificare i 2000€ di scheda video sennò?

Mmm do per scontato che oltre ad aver preso un 165 hz tu faccia anche 140-165 fps nei giochi, altrimenti non ha senso tutto il discorso

Del resto stai sbagliando. Tra 60 e 120 c'è un differenza visibile e pienamente percepibile, dopo, salenmdo oltre le differenze sia assottigliano mano a mano e la percezione diventa quasi nulla (ho un 75, un 120 e un 240 hz). Se non passandoci subito, dove effettivamente al primo utilizzo le differenze si possono anche notare poco il vero "colpo" sta nell'abituarsi a 120 (tipo un mesetto di gioco) per poi tornare a 60. La differenza a quel punto è impossibile da non vedere.
AL netto che in alcuni giochi gli fps maggiori danno vantaggi di reazione.
ANche il discorso RAy Tracing è lo stesso. La differenza si nota tranquillamente anche mentre si gioca ma vale lo stesso discorso. Se giochi 1 mese ad un gioco con un bel RT implementato bene, tornando a giocare altro noterai un "piattume" incredibile.

belta
28-11-2023, 16:29
Vabbè. Avrò problemi agli occhi, io non vedo differenze.


Se per te va bene così sei a posto ;)

Windtears
28-11-2023, 17:08
Se per te va bene così sei a posto ;)

io credo che se non nota la differenza di risoluzione nemmeno nelle texture e nella definizione in game, allora c'è poco da fare ancor prima degli fps... l'unica e provare un oled con hdr attivo, io ormai non riesco a tornare più indietro (uso desktop escluso).

Verro
28-11-2023, 17:10
Mmm do per scontato che oltre ad aver preso un 165 hz tu faccia anche 140-165 fps nei giochi, altrimenti non ha senso tutto il discorso

.


Si si, su rainbow sto sui 140fps ma è uguale a prima.
Tant'è che anche le performance (mie) non sono cambiate minimamente.