View Full Version : [Thread Ufficiale] AMD Radeon RX6000 Series
Sono usciti i nuovi driver?
grey.fox
23-02-2023, 08:05
Sono usciti i nuovi driver?
Pare abbiano già rilasciato una versione correttiva di quelli della settimana scorsa.
Diciamo che preferisco mettere via i soldini per una piattaforma completa AM5 quando i tempi saranno maturi
In ogni caso la scheda video ora è sicuramente sfruttata a dovere, lo stuttering che prima era una costante ora è svanito quindi direi obiettivo raggiunto con poca spesa :)
Passare da un 1700 a una serie 5xxx sia meglio non c'e' dubbio, ma ad esempio io con l'attuale piattaforma non ho mai avuto stuttering, forse grazie anche al fatto di avere una piattaforma occata e ottimizzata in ogni sua parte, di nessun tipo e gioco a tante tipologie di giochi tra cui diversi FPS.
Personalmente devo decidere se investire su un 2k o 4k o spingere al max l'FHD acquistando un 5800x3d visto che io con il PC principalmente ci gioco.
La piattaforma AM5 al momento x me sono soldi buttati, magari tra qualche anno ma con le potenze in gioco oggi lato CPU/GPU presumo che stia bene ancora per molto.
Cmq il tuo test mi e' stato molto utile soprattutto perche' provenivi dalla mia stessa vetusta cpu. ;)
Sono usciti i nuovi driver?
Pare abbiano già rilasciato una versione correttiva di quelli della settimana scorsa.
Changelog ufficiale: https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-2-2
Ho provato i nuovi drivers, ma c'è sempre il problema del crash di sistema quando lo schermo va in standby.
Inutile tentare ancora, rimango ai 22.11.2 e non tornerò ad aggiornare fin quando non scriveranno fra le note che è stato risolto.
Gundam1973
23-02-2023, 12:15
Changelog ufficiale: https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-2-2
Fatto ieri...tutto regolare!
Visto che c'ero ed era nel CL ho scaricato anche Atomic Heart dal Game Pass...devo dire che è veramente un gioco carino!
Consigliato! :D
sniperspa
23-02-2023, 14:32
Passare da un 1700 a una serie 5xxx sia meglio non c'e' dubbio, ma ad esempio io con l'attuale piattaforma non ho mai avuto stuttering, forse grazie anche al fatto di avere una piattaforma occata e ottimizzata in ogni sua parte, di nessun tipo e gioco a tante tipologie di giochi tra cui diversi FPS.
Personalmente devo decidere se investire su un 2k o 4k o spingere al max l'FHD acquistando un 5800x3d visto che io con il PC principalmente ci gioco.
La piattaforma AM5 al momento x me sono soldi buttati, magari tra qualche anno ma con le potenze in gioco oggi lato CPU/GPU presumo che stia bene ancora per molto.
Cmq il tuo test mi e' stato molto utile soprattutto perche' provenivi dalla mia stessa vetusta cpu. ;)
Ma guarda non che fosse impossibile continuare a giocare con il 1700 eh, però ti assicuro che la differenza in termini di fluidità l'ho vista tutta appena ho fatto la prima partita su COD in DMZ anche in termini di consumi della GPU
Poi quanto la cosa si noti è tutta soggettiva, io per quanto poco credo di aver un occhio abbastanza sensibile sotto questo punto di vista anche perchè gioco col freesync a 144hz dal 2017
Chiaro che giochi a 75hz puoi rimanere col 1700 :D
Passare da un 1700 a una serie 5xxx sia meglio non c'e' dubbio, ma ad esempio io con l'attuale piattaforma non ho mai avuto stuttering, forse grazie anche al fatto di avere una piattaforma occata e ottimizzata in ogni sua parte, di nessun tipo e gioco a tante tipologie di giochi tra cui diversi FPS.
Personalmente devo decidere se investire su un 2k o 4k o spingere al max l'FHD acquistando un 5800x3d visto che io con il PC principalmente ci gioco.
La piattaforma AM5 al momento x me sono soldi buttati, magari tra qualche anno ma con le potenze in gioco oggi lato CPU/GPU presumo che stia bene ancora per molto.
Cmq il tuo test mi e' stato molto utile soprattutto perche' provenivi dalla mia stessa vetusta cpu. ;)
ti sei abituato alla tua cpu,nn capirai la cosa finchè nn la cambierai.
io ho sostituito un 3600x con un 5700x è mi è cambiato il pc...nn di poco,figuriamoci tu che hai un vecchio 1700.
sniperspa
23-02-2023, 16:14
Figuriamoci poi che in 3Dmark, solo per avere 2 core in meno faccio lo stesso score ora di quello che facevo prima con il 1700 occato a 3,8ghz
Questo fa capire quanto sia inutile quel test per capire le reali performance in gaming del sistema
Gundam1973
23-02-2023, 16:28
Figuriamoci poi che in 3Dmark, solo per avere 2 core in meno faccio lo stesso score ora di quello che facevo prima con il 1700 occato a 3,8ghz
Questo fa capire quanto sia inutile quel test per capire le reali performance in gaming del sistema
Infatti il global score è l'ultima cosa che bisogna prendere in considerazione ai test 3dmark.
Il numero importante da guardare è il Graphic Score, il Cpu Score è stato sempre troppo influenzato da numero core e frequenza.
ti sei abituato alla tua cpu,nn capirai la cosa finchè nn la cambierai.
io ho sostituito un 3600x con un 5700x è mi è cambiato il pc...nn di poco,figuriamoci tu che hai un vecchio 1700.
Mi baso su quello che trovo in rete e i test che ho pubblicato non sembrano diano ragione a voi per il 2k 0 4k.
Che poi ti cambi il mondo non lo metto in dubbio non era questo che stavo mettendo in discussione.
Lo stuttering ti potrebbe venire anche da altro non solo dalla cpu e comuqne ad esempio io non ho mai avuto di questi problemi.
Se dovessi valutare i numeri di sniperspa di COD a parte 1 FPS di differenza di media passa da un collo di bottiglia dell 6% a uno del 1% su una risoluzione 2560x1088 utilizzo GPU passa dal 94% al 99% insomma non mi pare che il 5600 gli abbia fatto fare questo salto da urlo ma soprattutto mi pare che alche il 1700 spremeva la GPU a dovere.
Sia chiaro io presto passero' ad aggiornare la CPU specialmente se rimango in FHD ma mi piace capire e leggere bene i test che vengono postati non mi baso solo sul risultato finale.
Comunque ripeto, dipende anche dai giochi se sono CPU intensive o GPU intensive, nel caso di COD e' un GPU intensive quindi poco gli e' cambiato, al contrario magari in un flight simulator o F1 etc. il 5600 darebbe strada e pure tanta al 1700.
Mi baso su quello che trovo in rete e i test che ho pubblicato non sembrano diano ragione a voi per il 2k 0 4k.
Che poi ti cambi il mondo non lo metto in dubbio non era questo che stavo mettendo in discussione.
Lo stuttering ti potrebbe venire anche da altro non solo dalla cpu e comuqne ad esempio io non ho mai avuto di questi problemi.
Se dovessi valutare i numeri di sniperspa di COD a parte 1 FPS di differenza di media passa da un collo di bottiglia dell 6% a uno del 1% su una risoluzione 2560x1088 utilizzo GPU passa dal 94% al 99% insomma non mi pare che il 5600 gli abbia fatto fare questo salto da urlo ma soprattutto mi pare che alche il 1700 spremeva la GPU a dovere.
Sia chiaro io presto passero' ad aggiornare la CPU specialmente se rimango in FHD ma mi piace capire e leggere bene i test che vengono postati non mi baso solo sul risultato finale.
Comunque ripeto, dipende anche dai giochi se sono CPU intensive o GPU intensive, nel caso di COD e' un GPU intensive quindi poco gli e' cambiato, al contrario magari in un flight simulator o F1 etc. il 5600 darebbe strada e pure tanta al 1700.
allora io quando montavo il 3600x nn avevo nessun problema di rallentamento o shuttering,solo che se cambio una rx 5700xt per una rx 6800 e in gioco faccio poi circa 15/20 fps in più la cosa nn è bella.
so che la mia scheda ha prestazioni simili ad una rtx 3070TI in raster e ho un amico con suddetta vga,quando giocavano insieme nei vari game vedevo che lui faceva più fps di me,quindi ho controllato in giro sulla rete ed ho capito che ero cpu limited,cambiato la cpu nn solo ho guadagnato fps in game(anche nei var bench il 3d test faceva punteggi più alti) ma il pc è diventato più veloce in tutto eppure il mio ssd nvme è sempre lo stesso.
se io ho avuto questo aumento di performance tangibile figuriamoci tu che hai un vecchio 1700x.
questo ovviamente vale molto se si gioca in full hd e si nota abbastanza anche in 1440p,ovvio che se giochi in 4k probabilmente le differenze sono trascurabili.
p.s.: io gioco in 2k
sniperspa
23-02-2023, 18:04
Mi baso su quello che trovo in rete e i test che ho pubblicato non sembrano diano ragione a voi per il 2k 0 4k.
Che poi ti cambi il mondo non lo metto in dubbio non era questo che stavo mettendo in discussione.
Lo stuttering ti potrebbe venire anche da altro non solo dalla cpu e comuqne ad esempio io non ho mai avuto di questi problemi.
Se dovessi valutare i numeri di sniperspa di COD a parte 1 FPS di differenza di media passa da un collo di bottiglia dell 6% a uno del 1% su una risoluzione 2560x1088 utilizzo GPU passa dal 94% al 99% insomma non mi pare che il 5600 gli abbia fatto fare questo salto da urlo ma soprattutto mi pare che alche il 1700 spremeva la GPU a dovere.
Sia chiaro io presto passero' ad aggiornare la CPU specialmente se rimango in FHD ma mi piace capire e leggere bene i test che vengono postati non mi baso solo sul risultato finale.
Comunque ripeto, dipende anche dai giochi se sono CPU intensive o GPU intensive, nel caso di COD e' un GPU intensive quindi poco gli e' cambiato, al contrario magari in un flight simulator o F1 etc. il 5600 darebbe strada e pure tanta al 1700.
Probabilmente si poteva parlare di micro-stuttering nel mio caso, fatto sta che la prima serie di ryzen è sicuramente limitante nelle performance in gaming
Il PC non aveva e non ha nessun problema, semplicemente nei giochi più pesanti (o peggio ottimizzati) lato CPU si vedono i limiti, se invece usi giochi non troppo stressanti per la CPU o cmq ad FPS non troppo elevati difficilmente vengono fuori questi limiti ad occhio nudo
Se vuoi giocare a 4k 50FPS probabilmente basta anche Ryzen 1, se vuoi giocare a 144 costanti dubito basti anche il 5600...indipendentemente dalla GPU
Che monitor usi attualmente che forse me lo son perso?
Lionking-Cyan
24-02-2023, 08:07
Quindi nel bios, la voce VMD support la devo mettere a disabled?
Quindi nel bios, la voce VMD support la devo mettere a disabled?
VMD non c'entra nulla con le schede video, è una tecnologia delle piattaforme Intel, quella per cui si abilita il supporto al raid software (e per cui è necessario poi preparare i driver di installazione altrimenti Windows non riconosce i dischi collegati alla scheda madre).
Se non prevedi di fare raid, lasciala pure disabilitata.
grey.fox
24-02-2023, 10:07
La founders la lascerei stare e prenderei la Red Devil.
Io ho questa
https://www.powercolor.com/product?id=1612497663
Va da bestia e sta sempre fresca ed le ventole sono silenziosissime.
Il mio amico è in attesa della Red Devil, ma non ha tenuto conto dell'alimentatore.
Lo sto convincendo a passarla a me. :D :sofico:
ninja750
24-02-2023, 11:25
io ho sostituito un 3600x con un 5700x è mi è cambiato il pc...nn di poco,figuriamoci tu che hai un vecchio 1700.
nel tuo caso hai pure aggiunto 2 core
già passare da 3700x a 5700x meh.. penso lo farò ma lo vedo proprio come sidegrade
Probabilmente si poteva parlare di micro-stuttering nel mio caso, fatto sta che la prima serie di ryzen è sicuramente limitante nelle performance in gaming
Il PC non aveva e non ha nessun problema, semplicemente nei giochi più pesanti (o peggio ottimizzati) lato CPU si vedono i limiti, se invece usi giochi non troppo stressanti per la CPU o cmq ad FPS non troppo elevati difficilmente vengono fuori questi limiti ad occhio nudo
Se vuoi giocare a 4k 50FPS probabilmente basta anche Ryzen 1, se vuoi giocare a 144 costanti dubito basti anche il 5600...indipendentemente dalla GPU
Che monitor usi attualmente che forse me lo son perso?
Io ho un monitor da 27" gaming AOC Freesync FHD a 75Hz 1MS Displayport
Volevo passare direttamente ad un 5800X3D per avere il top su questa piattaforma AM4, ma mi sto domandando se quei soldi non conviene investirli in un monitor 2k o 4k, magari tra un anno togliere la 6700 e passare alla 7900.
Poco me frega dell' RT. :D
nel tuo caso hai pure aggiunto 2 core
già passare da 3700x a 5700x meh.. penso lo farò ma lo vedo proprio come sidegrade
bench alla mano la differenza c'è anche tra 3700x e 5700x,il discorso da fare più che altro il 3700x può ancora andare e upgradare al 5700x vale la pena solo se lo si trova ad un buon prezzo.
in ogni caso da un 1700x ad un 5700x c'è un salto enorme.
https://www.youtube.com/watch?v=53OmzV45C7o
bench alla mano la differenza c'è anche tra 3700x e 5700x,il discorso da fare più che altro il 3700x può ancora andare e upgradare al 5700x vale la pena solo se lo si trova ad un buon prezzo.
in ogni caso da un 1700x ad un 5700x c'è un salto enorme.
https://www.youtube.com/watch?v=53OmzV45C7o
Ok sono tutti TEST in FHD.........
........ per un attimo tralasciamo l' FHD e concentriamoci sui grafici sotto.....
2k
https://i.ibb.co/h8WtLFS/2.png (https://ibb.co/3hNL4mn)
https://i.ibb.co/GnBHP4w/1.png (https://ibb.co/CmNP03d)
https://i.ibb.co/yBFY6fx/image.png (https://ibb.co/WpvPkxR)
_______________________________________________________________________
4k
https://i.ibb.co/25wNW9Y/4k5.png (https://ibb.co/52dFG0x)
https://i.ibb.co/QX687fH/4k4.png (https://ibb.co/zNS8Wr2)
https://i.ibb.co/LgD5LKn/4k3.png (https://ibb.co/gWbV5Yz)
https://i.ibb.co/nkN4jgv/4k2.png (https://ibb.co/f0zZH15)
https://i.ibb.co/5Y0vm0j/4k1.png (https://ibb.co/VH1DR1C)
Per il sottoscritto per fare il "salto" di qualita' conviene investire su un buon monitor 2k o 4k pittosto che cambiare CPU.
Ok sono tutti TEST in FHD.........
........ per un attimo tralasciamo l' FHD e concentriamoci sui grafici sotto.....
2k
https://i.ibb.co/h8WtLFS/2.png (https://ibb.co/3hNL4mn)
https://i.ibb.co/GnBHP4w/1.png (https://ibb.co/CmNP03d)
https://i.ibb.co/yBFY6fx/image.png (https://ibb.co/WpvPkxR)
_______________________________________________________________________
4k
https://i.ibb.co/25wNW9Y/4k5.png (https://ibb.co/52dFG0x)
https://i.ibb.co/QX687fH/4k4.png (https://ibb.co/zNS8Wr2)
https://i.ibb.co/LgD5LKn/4k3.png (https://ibb.co/gWbV5Yz)
https://i.ibb.co/nkN4jgv/4k2.png (https://ibb.co/f0zZH15)
https://i.ibb.co/5Y0vm0j/4k1.png (https://ibb.co/VH1DR1C)
Per il sottoscritto per fare il "salto" di qualita' conviene investire su un buon monitor 2k o 4k pittosto che cambiare CPU.
l'ho scritto qualche post più in basso che in 4k le differenze probabilmente erano irrisorie ma fino al 2k la differenza c'è eccome.
l'ho scritto qualche post più in basso che in 4k le differenze probabilmente erano irrisorie ma fino al 2k la differenza c'è eccome.
Fina ad un certo punto, se guardi le prime slide sono in 2K e sinceramente non mi pare tutta sta differenza.
Quindi il discorso si chiude nel dire che se si rimane in FHD la scelta migliore e' un 5800x3d se invece vuoi fare un salto qualitativo conviene investire in un buon monitor e una GPU tralasciando il processore.
Fina ad un certo punto, se guardi le prime slide sono in 2K e sinceramente non mi pare tutta sta differenza.
Quindi il discorso si chiude nel dire che se si rimane in FHD la scelta migliore e' un 5800x3d se invece vuoi fare un salto qualitativo conviene investire in un buon monitor e una GPU tralasciando il processore.
ammazza fare 20 e passa fps in più cambiando la cpu nn è tanto?o stai cambiando la cpu non la gpu!
un salto di fps del genere lo si ha quando si sale di uno step nelle vga della stessa gen.
alethebest90
24-02-2023, 16:21
ammazza fare 20 e passa fps in più cambiando la cpu nn è tanto?o stai cambiando la cpu non la gpu!
un salto di fps del genere lo si ha quando si sale di uno step nelle vga della stessa gen.
ma infatti sono daccordo con te, oltre al fatto che quei 20fps potrebbero essere vitali, in un futuro prossimo magari se un gioco girasse a 40fps con quella cpu sali fino a 60fps e non è per niente male anzi
un po come io ho avuto miglioramenti dal passare alla rx580 alla rx6600xt in assassin's creed origins che per colpa della cpu (ex 2600) mi ha reso tutto piu fluido salendo anche di risoluzione
sniperspa
24-02-2023, 17:49
Io ho un monitor da 27" gaming AOC Freesync FHD a 75Hz 1MS Displayport
Volevo passare direttamente ad un 5800X3D per avere il top su questa piattaforma AM4, ma mi sto domandando se quei soldi non conviene investirli in un monitor 2k o 4k, magari tra un anno togliere la 6700 e passare alla 7900.
Poco me frega dell' RT. :D
No assolutamente sarebbero soldi abbastanza buttati per un 5800X3D perchè i vantaggi rispetto ad un banale 5600 (ad esempio) diventerebbero tangibili a frame rate >150 nella migliore delle ipotesi.
In sostanza se giochi competitivo con altissimi frame rate a FHD può aver senso il 58003XD altrimenti non ne trarresti benefici perchè saresti sempre e solo limitato dalla GPU.
Credo spenderesti meglio i soldi facendo un upgrade del monitor a un 144hz (2 o 4k) e prendendo una 5600/5700 che ti permetta di avere frame rate minimi sempre buoni, per evitare di trovati con la GPU limitata.
ammazza fare 20 e passa fps in più cambiando la cpu nn è tanto?o stai cambiando la cpu non la gpu!
un salto di fps del genere lo si ha quando si sale di uno step nelle vga della stessa gen.
Scusa ma i grafici li leggi o ti basi solo x la differenza di FPS
Giocare a 200 Fps Vs 220 FPS non ti cambia la vita poi in 4k manco a parlarne parliamo di 10 fps di differenza che in alcuni casi fa schifo anche il 5800x.
Se vogliamo discutere di questo ok se vogliamio dire invece che 20fps di differenza giustificano una spesa di 320k per la CPU allora non ci siamo perche' al momento per chi passa ad una serie 6000 o superiore con cpu non giovanotte converrebbe passare piu' a un monitor migliore che spendere per un upgrade della cpu.
Il mio discorso e' incentrato su questo.
Cmq sto facendo dei test vediamo cosa ne esce fuori. Chiaramente attivando il VSR dai driver.
ciao a tutti ho questa configurazione:
monitor 2k
6900xt
3700x
ha senso cambiare cpu?
ciao a tutti ho questa configurazione:
monitor 2k
6900xt
3700x
ha senso cambiare cpu?
Guarda i grafici sopra e ti risopondi da solo, pittosto passerei al 4k con quella bestia di GPU se proprio vuoi spendere soldi.
Ho fatto alcuni test ed ecco il risultato
The division 2, impostazioni ULTRA e ALTO al di la del punteggio in FPS guardate la % della CPU utilizzata nel salire di risoluzione, da FHD a 2K fino a 4k e piu' salivo e piu' la cpu "dormiva"
Chiaramente la mia 6700xt in 4k faticava e si sentivano le ventole girare belle forti.
https://i.ibb.co/S3RR7x1/td2fhd.png (https://ibb.co/LZnnhPq)
https://i.ibb.co/PtF449K/td22k.jpg (https://ibb.co/d7j66LF)
https://i.ibb.co/2tKbBC8/td24k.png (https://ibb.co/58c7VSY)
questo test vi fa capire che per chi come Alekx ha quella configurazione passare a una cpu superiore significherebbe buttare i soldi.
Stesso discorso per me se avessi una 6800XT o superiore il 1700x in 4k sarebbe piu' che sufficiente.
Guarda i grafici sopra e ti risopondi da solo, pittosto passerei al 4k con quella bestia di GPU se proprio vuoi spendere soldi.
ho appena cambiato il monitor :D
sniperspa
24-02-2023, 20:42
questo test vi fa capire che per chi come Alekx ha quella configurazione passare a una cpu superiore significherebbe buttare i soldi.
Stesso discorso per me se avessi una 6800XT o superiore il 1700x in 4k sarebbe piu' che sufficiente.
Dipende sempre a cosa giochi, Destiny 2 è un gioco su cui anche il 1700x riesce a garantire ottimi frame rate...è un gioco uscito se non sbaglio nel 2017 quindi ha gli stessi anni del 1700
Prova Warzone e poi mi sai dire se non ti vien voglia di cambiare CPU :D
Dipende sempre a cosa giochi, Destiny 2 è un gioco su cui anche il 1700x riesce a garantire ottimi frame rate...è un gioco uscito se non sbaglio nel 2017 quindi ha gli stessi anni del 1700
Prova Warzone e poi mi sai dire se non ti vien voglia di cambiare CPU :D
Io gioco a The divison 2 oramai da 10 anni, tra il primo e il secondo, e posso garantirti che essendo un FPS e giocando in PVP con grafica a palla e' una bellezza per gli occhi e gira da dio, forse anche perche' e' (sponsorizzato da AMD)
Ora devo solo decidere SE cambiare il mio monitor o cambiare CPU per ringiovanire un po' la configurazione.
D'altro canto di tutto il sistema la CPU e' l'unica che e' rimasta al "palo" perche' nel tempo ho cambiato le RAM mettendo le 3600 e facendole girare @ 3600 con le latenze delle 3200, il monitor da 27" e la GPU dalla 580 alla 6700xt.
O magari fare un mix e cioe' comprare un 3700x/3800x e cambiare monitor...... vediamo come stanno le finanze tra un mesetto e decido. ;)
P.S. Ieri ho visto un post su FB di un gioco, non ricordo quale, che tra la versione origina e quella pirata, con stessa configurazione HW ci passavano la bellezza di circa 20FPS di differenza a favore della pirata.
Non sono riuscito ad approfondire, ma sembrerebbe che i codici antipirateria frenino l' HW.
Se ritrovo l'articolo ve lo posto.
Ale55andr0
25-02-2023, 07:50
ma infatti sono daccordo con te, oltre al fatto che quei 20fps potrebbero essere vitali, in un futuro prossimo magari se un gioco girasse a 40fps con quella cpu sali fino a 60fps e non è per niente male anzi
guarda che il calo è in proporzione, non è che restano 20 fps a priori. Se in un gioco con la CPU migliore fai 120 e con l'altra 100 (+20%), col mattone in cui con la cpu inferiore fai solo 40fps con l'altra ne fai...48 (+20%) non 60 :D....
Ale55andr0
25-02-2023, 07:52
Ok sono tutti TEST in FHD.........
........ per un attimo tralasciamo l' FHD e concentriamoci sui grafici sotto.....
][/url]
Per il sottoscritto per fare il "salto" di qualita' conviene investire su un buon monitor 2k o 4k pittosto che cambiare CPU.
francamente il mio pezzentissimo 1700x mi pare messo troppo bene, non so, ho dei dubi su quei valori...
guarda che il calo è in proporzione, non è che restano 20 fps a priori. Se in un gioco con la CPU migliore fai 120 e con l'altra 100 (+20%), col mattone in cui con la cpu inferiore fai solo 40fps con l'altra ne fai...48 (+20%) non 60 :D....
Scusa non ho capito quello che dici, quel tes e' un benck del gioco, e'chiaro che cala con la risoluzioni piu' alte ma per colpa della GPU e non della CPU.
Cmq ecco un sito dove potete fare le prove che volete per cpaire chi fa da bottelnek a chi e incrociando i dati con i test fatti da me confermano la mia teoria. (nion scopro l'acqua calda per carita')
https://pc-builds.com/
in 2k la mia configurazione sembrerebbe non avere bottelnek
https://i.ibb.co/Lpjx0Mv/bot.jpg (https://ibb.co/ry8xQgv)
FHD
https://i.ibb.co/hmmxMkp/botfhd.jpg (https://ibb.co/crrKvPz)
Con cpu al 100% non riesco a spremere la GPU.
https://i.ibb.co/BgDJDNx/botfhd2.jpg (https://ibb.co/GVwDwTL)
Ale55andr0
25-02-2023, 08:07
Scusa non ho capito quello che dici, quel tes e' un benck del gioco, e'chiaro che cala con la risoluzioni piu' alte ma per colpa della GPU e non della CPU.
rispondevo all'altro utente ;)
rispondevo all'altro utente ;)
ok scusa :D
Ecco alcune considerazioni:
1700x con 6900xt in 2k il bottelneck e mostruoslo lato cpu in 4k si riallinea
https://i.ibb.co/f2SB3PP/2k-ko.jpg (https://ibb.co/R9SZXVV)
https://i.ibb.co/YRC77NT/4kok.jpg (https://ibb.co/tmGMMHP)
Questo per dire che a volte si punta ingenuamente solo a vedere le CPU o la GPU e magari non si pensa a migliorare il monitor nel passare a un 2k o 4k.
Buon week end a tutti, non vi annoio piu' :D :D :D
StylezZz`
25-02-2023, 10:14
O magari fare un mix e cioe' comprare un 3700x/3800x e cambiare monitor...... vediamo come stanno le finanze tra un mesetto e decido. ;)
Lascia perdere la serie 3000, dovresti passare alla 5000 per avere un boost tangibile.
Scusa ma i grafici li leggi o ti basi solo x la differenza di FPS
Giocare a 200 Fps Vs 220 FPS non ti cambia la vita poi in 4k manco a parlarne parliamo di 10 fps di differenza che in alcuni casi fa schifo anche il 5800x.
Se vogliamo discutere di questo ok se vogliamio dire invece che 20fps di differenza giustificano una spesa di 320k per la CPU allora non ci siamo perche' al momento per chi passa ad una serie 6000 o superiore con cpu non giovanotte converrebbe passare piu' a un monitor migliore che spendere per un upgrade della cpu.
Il mio discorso e' incentrato su questo.
Cmq sto facendo dei test vediamo cosa ne esce fuori. Chiaramente attivando il VSR dai driver.
misà che nn capisci cosa scrivo,eppure è in italiano.
ok tiette er 1700 ma che me ne frega a me,ciao.
sniperspa
25-02-2023, 12:43
Io gioco a The divison 2 oramai da 10 anni, tra il primo e il secondo, e posso garantirti che essendo un FPS e giocando in PVP con grafica a palla e' una bellezza per gli occhi e gira da dio, forse anche perche' e' (sponsorizzato da AMD)
Scusa avevo letto Destiny ma il concetto non cambia...The Division ricordo pure io che girava molto bene sul PC con 1700+rx580
Ora devo solo decidere SE cambiare il mio monitor o cambiare CPU per ringiovanire un po' la configurazione.
D'altro canto di tutto il sistema la CPU e' l'unica che e' rimasta al "palo" perche' nel tempo ho cambiato le RAM mettendo le 3600 e facendole girare @ 3600 con le latenze delle 3200, il monitor da 27" e la GPU dalla 580 alla 6700xt.
O magari fare un mix e cioe' comprare un 3700x/3800x e cambiare monitor...... vediamo come stanno le finanze tra un mesetto e decido. ;)
Ma per giocare è assolutamente meglio andare di 5600 piuttosto che 3700/3800, a meno che quest'ultimi non te li tirino dietro usati a meno di 100€
P.S. Ieri ho visto un post su FB di un gioco, non ricordo quale, che tra la versione origina e quella pirata, con stessa configurazione HW ci passavano la bellezza di circa 20FPS di differenza a favore della pirata.
Non sono riuscito ad approfondire, ma sembrerebbe che i codici antipirateria frenino l' HW.
Se ritrovo l'articolo ve lo posto.
Si è il problema principale dei giochi odierni, se non sbaglio COD ad esempio utilizza un core solamente per il sistema anti cheat...sono tutti sistemi abbastanza complessi che vanno a pesare sulla CPU.
francamente il mio pezzentissimo 1700x mi pare messo troppo bene, non so, ho dei dubi su quei valori...
Infatti non hanno nessun senso...a meno che non abbiano scambiato gli FPS medi con i massimi e i minimi con i medi :D
https://i.imgur.com/HLAvyjK.png
172fps di media con un 1700@stock seeeeee
Gundam1973
25-02-2023, 12:54
No assolutamente sarebbero soldi abbastanza buttati per un 5800X3D perchè i vantaggi rispetto ad un banale 5600 (ad esempio) diventerebbero tangibili a frame rate >150 nella migliore delle ipotesi.
In sostanza se giochi competitivo con altissimi frame rate a FHD può aver senso il 58003XD altrimenti non ne trarresti benefici perchè saresti sempre e solo limitato dalla GPU.
Credo spenderesti meglio i soldi facendo un upgrade del monitor a un 144hz (2 o 4k) e prendendo una 5600/5700 che ti permetta di avere frame rate minimi sempre buoni, per evitare di trovati con la GPU limitata.
Quoto!
Scusa ma i grafici li leggi o ti basi solo x la differenza di FPS
Giocare a 200 Fps Vs 220 FPS non ti cambia la vita poi in 4k manco a parlarne parliamo di 10 fps di differenza che in alcuni casi fa schifo anche il 5800x.
Se vogliamo discutere di questo ok se vogliamio dire invece che 20fps di differenza giustificano una spesa di 320k per la CPU allora non ci siamo perche' al momento per chi passa ad una serie 6000 o superiore con cpu non giovanotte converrebbe passare piu' a un monitor migliore che spendere per un upgrade della cpu.
Il mio discorso e' incentrato su questo.
Cmq sto facendo dei test vediamo cosa ne esce fuori. Chiaramente attivando il VSR dai driver.
Francamente sembra quasi che se fai 100 fps invece di 120 a quel dato gioco tutto diventa improvvisamente ingiocabile.
E ti SERVE un 5800X3D senno non sei nessuno!
Hai una 6700xt che il 1440 in raster lo gestisce piuttosto bene, la cpu nuova probabilmente potrebbe darti dei boost notevoli ma se sei con monitor 1080 75hz che te ne fai di questo boost?
Fai qualche esperimento col vsr e guarda i titoli che giochi TU come vanno, perche questo è quel che conta...se a COD la tua config potrebbe soffrire di stuttering o qualsivoglia problema, ma tu non giochi a COD....la risposta viene da se.
Dalla tua hai anche il fattore che mettiamo che prendi il monitor 2/4K ma ti ritrovi che la cpu arranca troppo....con veramente due spicci hai l'imbarazzo della scelta di cpu che puoi montare su AM4 e migliorare la situazione.
Anche sull'usato nel mercatino trovi di tutto e di piu!
IMHO! :D
stefano192
25-02-2023, 15:09
Ho fatto alcuni test ed ecco il risultato
The division 2, impostazioni ULTRA e ALTO al di la del punteggio in FPS guardate la % della CPU utilizzata nel salire di risoluzione, da FHD a 2K fino a 4k e piu' salivo e piu' la cpu "dormiva"
Chiaramente la mia 6700xt in 4k faticava e si sentivano le ventole girare belle forti.
questo test vi fa capire che per chi come Alekx ha quella configurazione passare a una cpu superiore significherebbe buttare i soldi.
Stesso discorso per me se avessi una 6800XT o superiore il 1700x in 4k sarebbe piu' che sufficiente.
Si sa che aumentando la risoluzione la CPU incide meno :rolleyes: per questo in fhd la gpu non viene sfruttata al 100%, e aumentando appunto la risoluzione, la % di utilizzo della gpu aumenta e quella della cpu diminuisce. (riferendomi agli screen di the division 2).
Anch'io all'epoca avevo visto gli screen che hai linkato di quei test (e ho qualche dubbio sul fatto che siano affidabili) dato che se guardi altrove, un po' di differenza tra un 3700x (che ho) e un ryzen serie 5000 (senza tirare in ballo il 3d) c'è. Non si parla di % assurde, però neanche così poco come mostrano quei test.
Non concordo assolutamente con l'affermazione evidenziata in grassetto, perché più è potente la GPU, più viene richiesta una CPU che le possa stare dietro. Esempio banale
https://static.techspot.com/articles-info/2520/bench/2160p-High-p.webp
Spiderman Remastered con una 3090ti in 4k. Guarda la differenza tra un 1800x e un 3800x o 5600x.
Poi sia chiaro, dipende da gioco e gioco, vedi tipo Cyberpunk dove in realtà mi pare non cambiasse quasi nulla tra un ryzen 1000/3000/5000. (EDIT: ecco qua il test che ho visto riguardo cyberpunk. Come puoi vedere, cambia pochissimo pure tra un 3000 e un 7000. (non ricordo che GPU usava, alla peggio una 3080). [url]https://i.imgur.com/AFJYoYI.png)[/url
Anzi cambiano i minimi, cosa di cui bisognerebbe prendere considerazione visto che sono molto importanti. Ricordo che quando cambiai il mio i7 920 per un 3700x (con una 1060, in fhd mi pare), su battlefield notai non tanto maggiori fps, ma una stabilità maggiore indice del fatto che gli fps minimi erano aumentati di tanto e quindi rendevano l'esperienza decisamente più piacevole perché evitavi il drop degli fps. ].
I Ryzen serie 1000 sono da dimenticare lato gaming, c'è stato proprio un salto bello importante con la serie 2000 e poi 3000. Tra 3000 e 5000 nulla che giustifichi un upgrade particolare, a meno che non hai una 3090ti o migliore.
Però sì, sostenere che un ryzen serie 1000 sia più che sufficiente con le gpu di fascia alta attuali, non regge imho.
misà che nn capisci cosa scrivo,eppure è in italiano.
ok tiette er 1700 ma che me ne frega a me,ciao.
Nessuno si vuole tenere il 1700x sia ben chiaro e non sto dicendo che sia la cpu migliore del mondo come non sto dicendo che mettendo cpu di ultima generazione non comporti benefici, sto solo sviscerando quello che sono le risoluzioni applicatte a GPU/CPU.
Se tu continui a pubblicare pero' test in FHD lo so a priori che un 5600x da le scorza al mio 1700x.
Cmq tanto per dire sto provando i giochi con il VSR e non ho un grande salto anche se gli FPS pur non aumentando per la GPU rimangono stabili come in FHD o poco sotto.
Per questo decidero' di passare probabilmente ad una serie 5000 sicuramente prima che diventino introvabili visto l' AM5 e spremere il piu' possibile l'FHD
Chiaramente ho postato qualche test per fare due raffronti e 2 chiacchiere non avendocela con nessuno. ;)
Buona serata a tutti. :-)
Quoto!
Francamente sembra quasi che se fai 100 fps invece di 120 a quel dato gioco tutto diventa improvvisamente ingiocabile.
E ti SERVE un 5800X3D senno non sei nessuno!
Hai una 6700xt che il 1440 in raster lo gestisce piuttosto bene, la cpu nuova probabilmente potrebbe darti dei boost notevoli ma se sei con monitor 1080 75hz che te ne fai di questo boost?
Fai qualche esperimento col vsr e guarda i titoli che giochi TU come vanno, perche questo è quel che conta...se a COD la tua config potrebbe soffrire di stuttering o qualsivoglia problema, ma tu non giochi a COD....la risposta viene da se.
Dalla tua hai anche il fattore che mettiamo che prendi il monitor 2/4K ma ti ritrovi che la cpu arranca troppo....con veramente due spicci hai l'imbarazzo della scelta di cpu che puoi montare su AM4 e migliorare la situazione.
Anche sull'usato nel mercatino trovi di tutto e di piu!
IMHO! :D
E' chiaro che se dovessi rimanere in FHD la scelta migliore in assoluto sarebbe il 5800x3d in alternativa il piu' economico 5700x.
sniperspa
25-02-2023, 19:14
Cmq tanto per dire sto provando i giochi con il VSR e non ho un grande salto anche se gli FPS pur non aumentando per la GPU rimangono stabili come in FHD o poco sotto.
Per questo decidero' di passare probabilmente ad una serie 5000 sicuramente prima che diventino introvabili visto l' AM5 e spremere il piu' possibile l'FHD
Chiaramente ho postato qualche test per fare due raffronti e 2 chiacchiere non avendocela con nessuno. ;)
Buona serata a tutti. :-)
Un concetto che spesso mi è capitato di leggere in passato è che all'aumentare della risoluzione si è meno CPU limited e quindi si gioca meglio, ma la realtà è che si ha si più carico sulla GPU ma non è che migliori l'esperienza di gioco
Esempio: se in FHD giochi a 120fps di media con drop a 60fps a causa della CPU che non ci sta dietro, a 2K magari fai 80fps di media ma avrai sempre gli stessi drop a 60fps (o meno)
Al massimo l'effetto "benefico" può essere quello di notare meno il calo di FPS perchè il gap è minore tra medi e minimi
Cambiando discorso ho aggiornato i driver dai 22.9 ai 23.2...mi sembra di notare un leggero incremento di performance e allo stesso tempo che siano un pò più fastidiosi in caso di OC instabile.
Cosa molto gradita hanno aggiunto la selezione dell'hardware sul quale applicare i profili di OC
https://i.imgur.com/r8FjWun.png
Ho rifatto qualche test, abbassando un pò la MaxFreq mi sembra di guadagnare qualche FPS rispetto ai precedenti test
https://i.imgur.com/ANnVwc5.png
https://i.imgur.com/VwuiLFz.jpg
Si l'ultima versione dei driver sembra aver dato un piccolo boost alla serie 6000 e miglioramenti in RT per le 6700, 6800 e soprattutto per le 6900 con un aumento del 38% x quest'ultima delle prestazioni (almeno cosi' sembra leggere in rete)
In ogni modo ottimi driver per fortuna.
Anche io hho guadagnato qualche punto
https://i.ibb.co/MM51szJ/tsfhd.jpg (https://ibb.co/18JXLC4)
3700x con 6900xt mio dice collo bottiglia cpu...
https://i.ibb.co/60BjsZ1/Senza-titolo.jpg (https://ibb.co/d4g8KcL)
https://i.ibb.co/xMVb915/Senza-titolo2.jpg (https://ibb.co/CnxyCb0)
ninja750
26-02-2023, 09:47
più guardo le review su youtube 3700x vs 5800x più mi rendo conto che sia un sidegrade giocando 1440p altro che collo di bottiglia
forse sono l'unico qua dentro a non avere miglioramenti prestazionali quando faccio oc della mia RX 6650 XT.... alzo le frequenze ma facendo 3dmark o Super Position trovo sempre gli stessi punteggi, non ho mai capito il perché.
A voi è capitato mai ?
3700x con 6900xt mio dice collo bottiglia cpu...
https://i.ibb.co/60BjsZ1/Senza-titolo.jpg (https://ibb.co/d4g8KcL)
https://i.ibb.co/xMVb915/Senza-titolo2.jpg (https://ibb.co/CnxyCb0)
Se hai possibilita' spostati in 4k aumentando il carico GPU e scaricando la CPU.
Anche se parliamo del 2% il nulla. ;)
forse sono l'unico qua dentro a non avere miglioramenti prestazionali quando faccio oc della mia RX 6650 XT.... alzo le frequenze ma facendo 3dmark o Super Position trovo sempre gli stessi punteggi, non ho mai capito il perché.
A voi è capitato mai ?
Scusa ma dovresti postare i parametri, scrivere cosi' nessuno sa darti una risposta,
Ad esempio il power limit lo metti al max ?
Scusa ma dovresti postare i parametri, scrivere cosi' nessuno sa darti una risposta,
Ad esempio il power limit lo metti al max ?
si, è regolato di default al massimo come pure il voltaggio della gpu.
Anche con la vecchia RX 570 8gb era lo stesso, aumentavo le frequenze ma non c'era una corrispondente risposta dei benchmark.
sniperspa
26-02-2023, 12:29
3700x con 6900xt mio dice collo bottiglia cpu...
https://i.ibb.co/60BjsZ1/Senza-titolo.jpg (https://ibb.co/d4g8KcL)
https://i.ibb.co/xMVb915/Senza-titolo2.jpg (https://ibb.co/CnxyCb0)
Questo è un 5600x+6900xt reference tutto completamente a stock di un amico
https://i.imgur.com/ugvNY7P.png
Credo fatto con settaggi alto/ultra FHD
ps.quel valore % sul collo di bottiglia credo che sia completamente cannato a volte
Scusa ma dovresti postare i parametri, scrivere cosi' nessuno sa darti una risposta,
Ad esempio il power limit lo metti al max ?
Ti allego immagine delle impostazioni predefinite dei miei driver, tutto a default.
Fammi sapere cosa ne pensi e se magari sbaglio qualcosa.
Grazie assai :)
https://i.postimg.cc/GmQ0W8hY/RX6650XT.png (https://postimg.cc/nXCw7Lmc)
sniperspa
26-02-2023, 13:25
A vedere così sembra tu non possa alzare il power limit, se la barretta al massimo indica zero come valore
Sicuro sia a default? Ultima versione di Adrenalin?
A vedere così sembra tu non possa alzare il power limit, se la barretta al massimo indica zero come valore
Sicuro sia a default? Ultima versione di Adrenalin?
si, sempre stato così, anche utilizzando altri software tipo MSIAfterburner la situazione non cambia, mi pare ache avevo lo stesso problema anche con la vecchia RX 570.
La mia scheda è una MSI Radeon RX 6650 XT MECH 2X 8G OC.
Versione driver 22.10.3.
https://i.postimg.cc/d1fHgfNk/RX.png (https://postimages.org/)
Se provo a fare overclock gpu/ram i valori in GpuZ cambiano però i punteggi in 3dMArk e SuperPosition non migliorano.
Gundam1973
26-02-2023, 14:10
si, sempre stato così, anche utilizzando altri software tipo MSIAfterburner la situazione non cambia, mi pare ache avevo lo stesso problema anche con la vecchia RX 570.
La mia scheda è una MSI Radeon RX 6650 XT MECH 2X 8G OC.
Versione driver 22.10.3.
https://i.postimg.cc/d1fHgfNk/RX.png (https://postimages.org/)
Se provo a fare overclock gpu/ram i valori in GpuZ cambiano però i punteggi in 3dMArk e SuperPosition non migliorano.
Non ho idea del perche sulla tua scheda non si possa alzare il PL....mi viene in mente solo che magari ha un dual bios e stai sul silent.
Evantualmente scarica mpt e cambia il valore del PL :D
Questa è l'ultima versione di afterburner e anche qui tutto bloccato.
https://i.postimg.cc/xjN8hF6K/RX2.png (https://postimages.org/)
sniperspa
26-02-2023, 14:17
Video a caso di overclock di una 6650xt -> https://www.youtube.com/watch?v=jxnuieskwF0
Io prenderei in considerazione un bel formattino del PC...il fatto che avessi lo stesso problema anche con la 570 mi fa pensare a qualche casino lato registri
Magari prima del format ti consiglierei di disinstallare tutti i software come MSI Afterburner e compagnia, compresi anche eventuali software per il controllo delle ventole/LED ed in generale per la gestione dell'hardware
Fatto quello magari fai anche una disinstallazione pulita degli Adrenalin e li reinstalli...se ancora non basta allora vai di format
ninja750
26-02-2023, 15:29
non è modificabile, anche guru segna "-" come power limit massimo:
https://www.guru3d.com/articles-pages/msi-radeon-rx-6650-xt-gaming-x-review,27.html
ma l'hanno portata a oltre 2900mhz
rifatti i test mettendo qualità come impostazioni guardate coma cambia
https://i.ibb.co/vwrXfcg/Senza-titolo3.jpg (https://ibb.co/K0QKB5R)
https://i.ibb.co/XCpJ7ZK/Senza-titolo4.jpg (https://ibb.co/4VMN8ZX)
alzando la qualità vado a spremere la GPU invece se abbasso la qualità al minimo mette sotto sforzo la CPU si inverte tutto
si, è regolato di default al massimo come pure il voltaggio della gpu.
Anche con la vecchia RX 570 8gb era lo stesso, aumentavo le frequenze ma non c'era una corrispondente risposta dei benchmark.
Con le 6000 dovresti diminuire il voltaggio e aumentare il core clock e aumentare la max il powerlimit +15%
Fai delle prove, ad esempio con la mia 6700xt a default ho:
Core Voltage vM 1.2
core clock 2.609 boost 2660
Memoru clock 2.000
Superposition: 6895 FHD EXTREME
Time Spy : 11683
senza toccare le ram ho ottenuto i migliori risultati con queto settaggio:
Core Voltage vM 1090
core clock Mhz 2670 (max)
Ram 2000
Temp: 60/62° Max
Juction 75/77 ° max
Superposition: 7085
Time Spy 12112
Il fatto e' che devi cercare di tenere fresca la scheda (diminuendo il voltaggio) in modo tale che riesca a mantenere le frequenze piu' alte possibili e piu a lungo, con il boost magari un po' piu' alto.
pero' ogni GPU e' a se stante, devi fare delle prove piano piano senza esagerare.
grey.fox
26-02-2023, 16:47
Nelle Msi mech (come la mia) il power limit è bloccato. Si può solo diminuire, ma non aumentare.
Nelle Msi mech (come la mia) il power limit è bloccato. Si può solo diminuire, ma non aumentare.
Quindi e' bloccato da bios probabilmente.
rifatti i test mettendo qualità come impostazioni guardate coma cambia
https://i.ibb.co/vwrXfcg/Senza-titolo3.jpg (https://ibb.co/K0QKB5R)
https://i.ibb.co/XCpJ7ZK/Senza-titolo4.jpg (https://ibb.co/4VMN8ZX)
alzando la qualità vado a spremere la GPU invece se abbasso la qualità al minimo mette sotto sforzo la CPU si inverte tutto
Ci sta evidentemente la GPU a ultra sara' a 100% contro il 30% della CPU e ti da bottleneck.
Pero' e' solo un parametro di riferimento, ti dice solo che per giocare a ultra devi aumentare le prestazioni della GPU cambiandola.
Penso che giocare a ultra a 135fps non faccia poi cosi' schifo.
Video a caso di overclock di una 6650xt -> https://www.youtube.com/watch?v=jxnuieskwF0
Io prenderei in considerazione un bel formattino del PC...il fatto che avessi lo stesso problema anche con la 570 mi fa pensare a qualche casino lato registri
Magari prima del format ti consiglierei di disinstallare tutti i software come MSI Afterburner e compagnia, compresi anche eventuali software per il controllo delle ventole/LED ed in generale per la gestione dell'hardware
Fatto quello magari fai anche una disinstallazione pulita degli Adrenalin e li reinstalli...se ancora non basta allora vai di format
ho formattato il sistema coll'altro ssd, installato windows 10 PRO, installato gli ultimi driver cioè i 23.2.2 e purtroppo non è cambiato nulla, credo cmq che siano questi bios della MSI ad essere bloccati, anche la precedente RX 570 era una MSI e se non sbaglio si comportava allo stesso modo.
Cmq l'importante che funziona a default l'overclock non lo mai ritenuto importante, se si può fare bene se non si può fare fa lo stesso, ciò che importa è che posso giocare col mio pc.
Quindi e' bloccato da bios probabilmente.
si i bios sono bloccati, si dovrebbero sbloccare via software però non lo faccio perché non mi va di invalidare la garanzia della mia bella scheda.
Con le 6000 dovresti diminuire il voltaggio e aumentare il core clock e aumentare la max il powerlimit +15%
Fai delle prove, ad esempio con la mia 6700xt a default ho:
Core Voltage vM 1.2
core clock 2.609 boost 2660
Memoru clock 2.000
Superposition: 6895 FHD EXTREME
Time Spy : 11683
senza toccare le ram ho ottenuto i migliori risultati con queto settaggio:
Core Voltage vM 1090
core clock Mhz 2670 (max)
Ram 2000
Temp: 60/62° Max
Juction 75/77 ° max
Superposition: 7085
Time Spy 12112
Il fatto e' che devi cercare di tenere fresca la scheda (diminuendo il voltaggio) in modo tale che riesca a mantenere le frequenze piu' alte possibili e piu a lungo, con il boost magari un po' piu' alto.
pero' ogni GPU e' a se stante, devi fare delle prove piano piano senza esagerare.
curiosità, quanto fai col pc a default con 3dMark e Superposition ?
ninja750
26-02-2023, 18:14
visto che non si può aumentare il power limit fai undervolt già le frequenze si dovrebbero alzare se la scheda ci sta picchiando sopra
StylezZz`
26-02-2023, 18:46
Come già scritto in un post precedente, la 6650 è una 6600 XT overcloccata, provare a spremerla ulteriormente è semplicemente controproducente lato consumi, non ne vale la pena...io farei undervolt.
Gundam1973
26-02-2023, 19:28
si i bios sono bloccati, si dovrebbero sbloccare via software però non lo faccio perché non mi va di invalidare la garanzia della mia bella scheda.
E come si invaliderebbe questa garanzia modificando il pl?
Mi sfugge.... :mbe:
E come si invaliderebbe questa garanzia modificando il pl?
Mi sfugge.... :mbe:
se io dovessi modificare il bios magari si invalida l'originalità della scheda e la sua garanzia.
Cmq non fa nulla io la uso così che va già bene.
visto che non si può aumentare il power limit fai undervolt già le frequenze si dovrebbero alzare se la scheda ci sta picchiando sopra
esattamente cosa devo fare ?
Scusa per la domanda ma non sono un utente particolarmente esperto, però mi piace imparare. Ti ringrazio :)
grey.fox
26-02-2023, 22:08
Domanda: le modifiche fatte attraverso More Power Tool si devono riapplicare ogni volta che si aggiornano i driver?
Gundam1973
27-02-2023, 02:46
se io dovessi modificare il bios magari si invalida l'originalità della scheda e la sua garanzia.
Cmq non fa nulla io la uso così che va già bene.
Con mpt non modifichi il bios e non invalidi nessuna garanzia! :D
Domanda: le modifiche fatte attraverso More Power Tool si devono riapplicare ogni volta che si aggiornano i driver?
Si, quando aggiorni devi ricaricare il profilo!:D
curiosità, quanto fai col pc a default con 3dMark e Superposition ?
L' ho messo in alto sulla configurazione a def. 6895 FHD EXTREME
Con mpt non modifichi il bios e non invalidi nessuna garanzia! :D
devi scusare l'ignoranza, cosa sarebbe mpt ?
Hai un link con tutorial ?
grey.fox
27-02-2023, 10:36
Si, quando aggiorni devi ricaricare il profilo!:D
Meglio così, almeno disinstallo i driver e non fa casini.
Probabilmente tolgo la 6600 per un piccolo up. :D
Gundam1973
27-02-2023, 10:46
devi scusare l'ignoranza, cosa sarebbe mpt ?
Hai un link con tutorial ?
https://www.igorslab.de/en/red-bios-editor-and-morepowertool-adjust-and-optimize-your-vbios-and-even-more-stable-overclocking-navi-unlimited/
Giorgio G
27-02-2023, 11:27
devi scusare l'ignoranza, cosa sarebbe mpt ?
Hai un link con tutorial ?
https://www.igorslab.de/en/red-bios-editor-and-morepowertool-adjust-and-optimize-your-vbios-and-even-more-stable-overclocking-navi-unlimited/
Salve, scusate se mi intrometto, a proposito del MorePowerTool, ma con quel tool si può modificare anche le rx6650xt ? Perchè guardando un po in rete mi sembra di aver capito che non è possiblile con la serie 6000, o ho capito male io?
Eventualmente volevo creare un profilo eco, voltaggio e clock leggermente inferiori, che dite?
ninja750
27-02-2023, 19:31
esattamente cosa devo fare ?
Scusa per la domanda ma non sono un utente particolarmente esperto, però mi piace imparare. Ti ringrazio :)
apri il pannello radeon, metti in manuale il voltaggio e frequenze, e abbassa il voltaggio piano piano facendo un test per volta e vedi fin dove è stabile e fin dove non perdi performance, in teoria se batte sul power limit le frequenze dovrebbero alzarsi da sole
FSR3.0, speriamo bene per le nostre 6000 (link) (https://tech.everyeye.it/notizie/amd-non-radeon-7000-fsr3-arrivera-generazioni-617571.html)
MontegoBay
01-03-2023, 10:34
HO installato i nuovi driver
come vi sembra
http://www.3dmark.com/spy/36243019
Hardware e quello in firma
Grazie
Gundam1973
01-03-2023, 11:22
HO installato i nuovi driver
come vi sembra
http://www.3dmark.com/spy/36243019
Hardware e quello in firma
Grazie
Considerando che da quel che leggo sei a stock sulla gpu direi che 19k di graphic score sono in linea! :D
anche con i nuovi driver io vedo sempre lo stesso punteggio....
https://www.3dmark.com/3dm/90102414
grey.fox
01-03-2023, 15:37
E Red Devil sia! :sofico:
Prima accensione di prova.
Non guardate i cavi che ho montato tutto al volo per testare.
https://i.ibb.co/nPLzrJ7/RX-6700-XT.jpg (https://ibb.co/nPLzrJ7)
E Red Devil sia! :sofico:
Prima accensione di prova.
Non guardate i cavi che ho montato tutto al volo per testare.
https://i.ibb.co/nPLzrJ7/RX-6700-XT.jpg (https://ibb.co/nPLzrJ7)
:cool:
alethebest90
01-03-2023, 15:58
quant è bella la red devil...tamarrissima proprio per il mio pc :D
spero in una prossima serie 7000 con prestazioni da 6800
grey.fox
01-03-2023, 17:22
quant è bella la red devil...tamarrissima proprio per il mio pc :D
spero in una prossima serie 7000 con prestazioni da 6800
E' enorme e pesantissima. :doh:
Ma veramente figa! :cool:
MontegoBay
01-03-2023, 18:17
Considerando che da quel che leggo sei a stock sulla gpu direi che 19k di graphic score sono in linea! :D
Si sì stock
A dire il vero almeno x ora non vedo la necessità Di altra forza bruta
stefano192
01-03-2023, 18:24
FSR3.0, speriamo bene per le nostre 6000 (link) (https://tech.everyeye.it/notizie/amd-non-radeon-7000-fsr3-arrivera-generazioni-617571.html)
Pensavo fosse qualcosa di nuovo, che post scam :(
:D
Però comunque si devono dare una mossa sennò ora che sarà disponibile FSR3 il DLSS sarà al 4
MontegoBay
01-03-2023, 19:33
Considerando che da quel che leggo sei a stock sulla gpu direi che 19k di graphic score sono in linea! :D
Secondo me , è più fattibile un oc alla Cpu che alla gpu o sbaglio ?
grey.fox
01-03-2023, 19:37
Stamattina Steam mi ha fatto un aggiornamento al 3dMark.
Da allora anche quando lo chiudo dopo averlo usato, Steam continua a dirmi che è in esecuzione. Se provo a rilanciare il 3dMark ricevo un messaggio di errore di Steam. Se vado a vedere nella libreria risulta ancora in esecuzione anche se non lo è.
Sono costretto ogni volta a riavviare Steam.
Anche voi avete questo problema? :confused:
Gundam1973
01-03-2023, 20:18
Secondo me , è più fattibile un oc alla Cpu che alla gpu o sbaglio ?
PErdonami non ho capito la domanda. :D
sniperspa
01-03-2023, 22:53
E Red Devil sia! :sofico:
Prima accensione di prova.
Non guardate i cavi che ho montato tutto al volo per testare.
https://i.ibb.co/nPLzrJ7/RX-6700-XT.jpg (https://ibb.co/nPLzrJ7)
Cos'è quella cosa con scritto upHere?
Io vado un pò controcorrente ma devo dire mi piace il design un pò austero della reference, anche se il led rosso sopra col diavolo lo vorrei anch'io :D
grey.fox
01-03-2023, 23:04
Cos'è quella cosa con scritto upHere?
E' una staffa di rinforzo per queste nuove vga lunghe e pesanti. Serve per evitare problemi di sag.
Ovviamente si possono usare solo se non servono altri slot pci oltre alla scheda video.
FranKoZZo
02-03-2023, 13:33
questa moda di mettere led ovunque...mamma mia :rolleyes:
sunmoonking
02-03-2023, 14:57
questa moda di mettere led ovunque...mamma mia :rolleyes:
Così è natale tutto l’anno :D :D :D
alethebest90
02-03-2023, 15:08
questa moda di mettere led ovunque...mamma mia :rolleyes:
infatti se qualcuno vuole scambiare la sua rx6600xt tutta led con la mia :D
a me sono sempre piaciuti, ricordo ancora 15 anni fa piu o meno che compravo ventole e neon da un noto sito che adesso non ricordo il nome e mi divertiva personalizzare il case.
Adesso sto cercando di recuperare con il nuovo case, mi manca solo una scheda madre che abbia ARGB per pilotare tutto :D
grey.fox
02-03-2023, 20:08
Tra un cambio scheda e l'altro sto giocando a God of War, ovviamente sempre in fullhd, e ho notato che con la 6700XT viene usata quasi tutta la vram. Oggi ho letto 11393 Mb. Non credevo. Ero convito che, attualmente, in fullhd i canonici 8 giga fossero ancora più che sufficienti.
Tra un cambio scheda e l'altro sto giocando a God of War, ovviamente sempre in fullhd, e ho notato che con la 6700XT viene usata quasi tutta la vram. Oggi ho letto 11393 Mb. Non credevo. Ero convito che, attualmente, in fullhd i canonici 8 giga fossero ancora più che sufficienti.
Io in The division 2 sto fisso a 11GB di VRAM utilizzata in FHD ;)
Tra un cambio scheda e l'altro sto giocando a God of War, ovviamente sempre in fullhd, e ho notato che con la 6700XT viene usata quasi tutta la vram. Oggi ho letto 11393 Mb. Non credevo. Ero convito che, attualmente, in fullhd i canonici 8 giga fossero ancora più che sufficienti.
Non sono valori reali. Quel dato indica il teorico uso della Ram. Lo ha spiegato meglio Mikael in diversi post. Altrimenti significa che nessuno giocherebbe più in FHD. Io con la a2000 malapena arrivo a 5 giga in 2K su The Division e su Destiny.
sniperspa
02-03-2023, 20:49
Tra un cambio scheda e l'altro sto giocando a God of War, ovviamente sempre in fullhd, e ho notato che con la 6700XT viene usata quasi tutta la vram. Oggi ho letto 11393 Mb. Non credevo. Ero convito che, attualmente, in fullhd i canonici 8 giga fossero ancora più che sufficienti.
Non è detto che perchè la memoria è allocata venga effettivamente usata tutta
Dipende com'è programmato il gioco immagino, ma se c'è spazio nella vram credo preferiscano tenere in memoria anche roba che non serve in quella scena così da ridurre per quanto possibile i caricamenti dalla ram
In sostanza non è detto che con ipoteticamente la stessa scheda ma 8gb di ram vedresti differenze di frame rate
Se ho detto castronerie coreggettemi pure :stordita:
Non sono valori reali. Quel dato indica il teorico uso della Ram. Lo ha spiegato meglio Mikael in diversi post. Altrimenti significa che nessuno giocherebbe più in FHD. Io con la a2000 malapena arrivo a 5 giga in 2K su The Division e su Destiny.
Ah ecco appunto..mi hai anticipato :)
grey.fox
02-03-2023, 22:30
Infatti era quello che intendevo.
Dipende ovviamente da come sono programmati i giochi.
Alcuni non vanno oltre i 5 Giga anche se la memoria fisica è molta di più, altri invece cercano di allocare (giustamente dico io) tutto il possibile.
Non è detto che perchè la memoria è allocata venga effettivamente usata tutta
Dipende com'è programmato il gioco immagino, ma se c'è spazio nella vram credo preferiscano tenere in memoria anche roba che non serve in quella scena così da ridurre per quanto possibile i caricamenti dalla ram
In sostanza non è detto che con ipoteticamente la stessa scheda ma 8gb di ram vedresti differenze di frame rate
Se ho detto castronerie coreggettemi pure :stordita:
Anche Anomaly (mod stand alone basata su Stalker CoP) mi usa tutta la vram della 6650xt giocando in full hd, prima giocavo con una 970 ma non usavo l'on screen display dell'Afterburner per cui non posso fare raffronti ma sicuramente è come dici tu.
Polpi_91
04-03-2023, 14:08
è possibile che con gli ultimi driver 23.2.2 si impossibile giocare su una 6650 XT? ogni x minuti random vanno in timeout e crashano
il sistema operativo è pulito, win 11, e il PC è praticamente nuovo (5600x + B550 + 16gb ram + 6650xt)
è possibile che con gli ultimi driver 23.2.2 si impossibile giocare su una 6650 XT? ogni x minuti random vanno in timeout e crashano
il sistema operativo è pulito, win 11, e il PC è praticamente nuovo (5600x + B550 + 16gb ram + 6650xt)
A me capitava con la 6900xt quando tiravo troppo in basso la tensione, in certi giochi non regge I 1080mV. Ho risolto mettendo 1100 fisso.
Polpi_91
04-03-2023, 14:47
A me capitava con la 6900xt quando tiravo troppo in basso la tensione, in certi giochi non regge I 1080mV. Ho risolto mettendo 1100 fisso.
tutto @def non ho toccato nulla stranamente
tutto @def non ho toccato nulla stranamente
Hai provato con dei driver precedenti? Io avevo i driver 23.2.1 e 23.2.2 che andavano in timeout ogni volta che il monitor andava in standby, ho risolto tornando ai 22.11.2.
stefano192
05-03-2023, 14:34
https://www.techspot.com/news/97819-amd-formally-addresses-rare-driver-bug-suspected-bricking.html
Sulla questione "brick" di windows.
ninja750
06-03-2023, 08:02
un problema windows di cui si prenderà la colpa amd, formalmente
già ammettere che un problema esiste è qualcosa
FranKoZZo
06-03-2023, 10:51
è possibile che con gli ultimi driver 23.2.2 si impossibile giocare su una 6650 XT? ogni x minuti random vanno in timeout e crashano
il sistema operativo è pulito, win 11, e il PC è praticamente nuovo (5600x + B550 + 16gb ram + 6650xt)
Ti consiglio di rivedere il tuo overclock delle ram, perchè spesso i programmi che testano la ram non rilasciano errori, ma effettivamente il pcie 4.0 può diventare instabile e far crashare la scheda video.
Imposta le ram a frequenze più basse tipo 3200mhz per fare una prova rapida e vedrai che non avrai più problemi.
Infatti era quello che intendevo.
Dipende ovviamente da come sono programmati i giochi.
Alcuni non vanno oltre i 5 Giga anche se la memoria fisica è molta di più, altri invece cercano di allocare (giustamente dico io) tutto il possibile.
Pero' se non erro tanto dipende anche dalle impostazioni video che utilizzi e dagli effetti che vuoi nei giochi.
Molti giochi ad esempio hanno impostazioni video limitate, altri ne hanno a decine e in base a quelle che utilizzi la VRAM viene occupata in + o in -.
Ti faccio un esempio con 2 giochi con cui mi diletto...
A Plague Tale Requiem impostato tutto su ALTO e non avendo altro da impostare sono intorno ai 9Gb saturati.
In The Division 2 dove le impostazioni sono molto piu' corpose sono tra ULTRA e ALTO + altri effetti messi a seconda delle esigente e sono intorno agli 11GB scarsi occupati.
Polpi_91
06-03-2023, 11:13
Ti consiglio di rivedere il tuo overclock delle ram, perchè spesso i programmi che testano la ram non rilasciano errori, ma effettivamente il pcie 4.0 può diventare instabile e far crashare la scheda video.
Imposta le ram a frequenze più basse tipo 3200mhz per fare una prova rapida e vedrai che non avrai più problemi.
le ram sono @def 3200CL14 (non è il mio PC) ma sembra un problema che ora si limita a hogwarts legacy
FranKoZZo
06-03-2023, 11:38
le ram sono @def 3200CL14 (non è il mio PC) ma sembra un problema che ora si limita a hogwarts legacy
Se si limita solo a quello, il gioco è nuovo e i driver appena usciti. per supportarlo. Possibile quindi se non certo che il driver sia colpevole.
FranKoZZo
06-03-2023, 11:41
Infatti era quello che intendevo.
Dipende ovviamente da come sono programmati i giochi.
Alcuni non vanno oltre i 5 Giga anche se la memoria fisica è molta di più, altri invece cercano di allocare (giustamente dico io) tutto il possibile.
Mi viene da ridere ogni volta che sento o leggo questa unità di misura riferendosi anche al traffico internet sponsorizzato dai vari ladroni in giro o addirittura per la velocità di banda internet o come in questo caso per la ram di sitema di un qualsiasi dispositivo: GIGA! IL FAMOSO GIGA..Ma Giga cosa? Gigahertz? Gigawatt? Gigapatate? O Gigabytes? Che poi sarebbe il termine corretto..cerchiamo di parlare con la terminologia corretta, soprattutto su un forum di tecnologia, piuttosto che dare spago al marketing che ci sta lobotomizzando e che ci fa parlare o esprimerci proprio come loro...Grazie
PS: e non dirmi che lo hai scritto per abbreviare, perchè sinceramente non è una scusa plausibile su un forum di hardware.
grey.fox
06-03-2023, 11:49
Mi viene da ridere ogni volta che sento o leggo questa unità di misura riferendosi anche al traffico internet sponsorizzato dai vari ladroni in giro o per la banda internet...GIGA..Giga cosa? Gigahertz? Gigawatt? Gigapatate? O Gigabytes? Che poi sarebbe il termine corretto..cerchiamo di parlare con la terminologia corretta, soprattutto su un forum di tecnologia, piuttosto che dare spago al marketing che ci sta lobotomizzando e che ci fa parlare o esprimerci proprio come loro...Grazie
Stiamo parlando di quantità memoria di una scheda video, quindi chiaramente in questo contesto si parla di gigabyte. Ovviamente frequentando questo forum tecnico dovresti capirlo al volo.
Ridi pure finché vuoi, il più possibile, ridere fa bene... Quando meno ce lo aspettiamo siamo tutti in una bara. ;)
FranKoZZo
06-03-2023, 11:52
Risposta errata, leggi sopra il mio post modificato..sapevo che avresti risposto che era per abbreviare..me la rido ancora di più quindi.
grey.fox
06-03-2023, 12:22
Risposta errata, leggi sopra il mio post modificato..sapevo che avresti risposto che era per abbreviare..me la rido ancora di più quindi.
Non seguo già più il tuo ragionamento ma non ha importanza.
Continua pure ridere da solo che io vado a pranzo. :D
FranKoZZo
06-03-2023, 13:24
Non seguo già più il tuo ragionamento ma non ha importanza.
Continua pure ridere da solo che io vado a pranzo. :D
Non mi aspettavo certo che capissi.. Buona giornata
Qualcuno sa se si può abilitare la funzionalità Hardware-accelerated GPU scheduling di Windows per le AMD 6xxx?
Non so se abbia impatti particolari nei giochi, ero solo curioso di testarla..però non la trovo nelle varie opzioni grafiche
Qualcuno sa se si può abilitare la funzionalità Hardware-accelerated GPU scheduling di Windows per le AMD 6xxx?
Non so se abbia impatti particolari nei giochi, ero solo curioso di testarla..però non la trovo nelle varie opzioni grafiche
Ho visto dei test sul tubo
https://www.youtube.com/watch?v=_BODa4rf8UM
Da quello che si vede nei video in molti giochi guadagni dai 5 ai 7 FPS AVG in altri rimane uguale in altri come forza horizon perdi 4 FPS.
Non si grida al miracolo ma in qualche modo hanno ottimizzato la gestione della VRAM.
FranKoZZo
07-03-2023, 08:37
Qualcuno sa se si può abilitare la funzionalità Hardware-accelerated GPU scheduling di Windows per le AMD 6xxx?
Non so se abbia impatti particolari nei giochi, ero solo curioso di testarla..però non la trovo nelle varie opzioni grafiche
Solo le Nvidia supportano questa funzione al momento, che io sappia. Inoltre dovrebbe anche aumentare l' input lag poichè la cpu invia dei dati alla gpu per sgravarseli di dosso e finchè la cpu non ha completato tale operazione la gpu non li elabora. Questa tecnica ha senso se hai una cpu vecchia che va spesso al 100% di carico su tutti i core e quindi la aiuterai ad alleggerirsi dalle operazioni, "spostandole" alla gpu. Nessun miracolo quindi, e spesso quindi non serve a na mazza o controproducente appunto.
Gyammy85
07-03-2023, 09:18
Il GPU scheduling vale per le nvidia, amd lo fa di default da dieci anni
Solo le Nvidia supportano questa funzione al momento, che io sappia. Inoltre dovrebbe anche aumentare l' input lag poichè la cpu invia dei dati alla gpu per sgravarseli di dosso e finchè la cpu non ha completato tale operazione la gpu non li elabora. Questa tecnica ha senso se hai una cpu vecchia che va spesso al 100% di carico su tutti i core e quindi la aiuterai ad alleggerirsi dalle operazioni, "spostandole" alla gpu. Nessun miracolo quindi, e spesso quindi non serve a na mazza o controproducente appunto.
La funzione e' supportata dal 2020 da parte di Nvidia e AMD.
Dai test pero' sembrerebbe che non porti a benefici anzi in alcuni casi hai dei cali di FPS.
https://www.gamersnexus.net/guides/3599-windows-10-hardware-accelerated-gpu-scheduling-benchmarks
Poi chissa' magari come dici tu su CPU Vecchie che stanno al 100% magari porta a qualche beneficio.
FranKoZZo
07-03-2023, 14:02
La funzione e' supportata dal 2020 da parte di Nvidia e AMD.
Dai test pero' sembrerebbe che non porti a benefici anzi in alcuni casi hai dei cali di FPS.
https://www.gamersnexus.net/guides/3599-windows-10-hardware-accelerated-gpu-scheduling-benchmarks
Poi chissa' magari come dici tu su CPU Vecchie che stanno al 100% magari porta a qualche beneficio.
Errato, dal 2020 è per gpu nvidia. Almeno così io ho letto. Se poi AMD lo ha sempre avuto nativo, questo non mi è chiaro, perché così non sembrerebbe.
Errato, dal 2020 è per gpu nvidia. Almeno così io ho letto. Se poi AMD lo ha sempre avuto nativo, questo non mi è chiaro, perché così non sembrerebbe.
Ma da quello che ho letto sembrerebbe di no.
Dalla Community AMD
https://community.amd.com/t5/drivers-software/for-the-nth-time-hardware-accelerated-gpu-scheduling-or-hags/m-p/488108
""Hardware-accelerated GPU scheduling is a feature new to Microsoft’s May 2020 update, Windows 10 version 2004, and has now been supported by both NVIDIA and AMD via driver updates. This feature is not to be confused with DirectX 12 Ultimate, which was delivered in the same Windows update. Hardware-accelerated GPU scheduling is supported on Pascal and Turing cards from NVIDIA, as well as AMD’s 5600 and 5700 series of cards. In today’s content, we’ll first walk through what exactly this feature does and what it’s supposed to mean, then we’ll show some performance testing for how it behaviorally affects change.
Enabling hardware-accelerated GPU scheduling requires Windows 10 2004, a supported GPU, and the latest drivers for that GPU (NVIDIA version 451.48, AMD version 20.5.1 Beta). With those requirements satisfied, a switch labelled “Hardware-accelerated GPU Scheduling” should appear in the Windows 10 “Graphics Settings” menu, off by default. Enabling the feature requires a reboot. This switch is the only visible sign of the new feature."
NOTE: It is possible the 6000 series GPU card might be compatible also since this article came out in 2020"
che poi nella stessa communuty sembrerebbe che per la serie 6000 non compariva questa possibilita'. Non so con i driver aggiornati ad oggi.
Gundam1973
08-03-2023, 08:15
23.3.1 Out! :D
ninja750
08-03-2023, 08:51
hanno tolto temporaneamente il reset factory per investigare quel problema che a qualcuno ha sputtanato windows
Gundam1973
08-03-2023, 09:37
Stasera li provo! :D
FranKoZZo
08-03-2023, 10:02
Stasera li provo! :D
Sei tu Sxxxxx ? Account Amazon? :D
Gundam1973
08-03-2023, 10:59
Sei tu XXX XXX? Account Amazon? :D
Si perche?
FranKoZZo
08-03-2023, 11:00
Si perche?
Niente ho visto la tua recensione sulle ram che stai usando
Gundam1973
08-03-2023, 11:03
Sei tu XXX XXX? Account Amazon? :D
Si perche?
Hai forse visto la recensione delle Ram?
Sei uno stalker!!:Prrr: :Prrr:
Gundam1973
08-03-2023, 11:03
Niente ho visto la tua recensione sulle ram che stai usando
Immaginavo! :-)
Cmq ottime ram....nulla di spaziale ma lavorano molto bene!
FranKoZZo
08-03-2023, 11:20
Immaginavo! :-)
Cmq ottime ram....nulla di spaziale ma lavorano molto bene!
Ti avrei consigliato le Viper Steel.. Prova a guardare, costano una caccola. Le mie le ho prese a 99 euro.
Messaggio editato :)
Gundam1973
08-03-2023, 11:38
Ti avrei consigliato le Viper Steel.. Prova a guardare, costano una caccola. Le mie le ho prese a 99 euro.
Messaggio editato :)
Le avevo viste ma non c'erano 2x16 quando ho preso le mie ma solo 2x8....erano nel mirino ma avevo fretta di comprare perche avevo piazzato le mie gskill sempre 2x16 ad un collega e con 30E sopra ci ho preso queste prima che il tipo ci ripensasse!
Cmq sono soddisfatto girano senza problemi a 3800 16-20-20-39 con 1.4v....e non ho ancora toccato i sub. Le gskill non si muovevano di una virgola da frequenze e timing di targa.
Grazie x l'edit! :D
Polpi_91
08-03-2023, 13:46
Considerando che ci sono circa 40/50€ di differenza tra una RX 6700 xt e una RX 6750 XT, tale differenza si nota poi nelle prestazioni?
Considerando che ci sono circa 40/50€ di differenza tra una RX 6700 xt e una RX 6750 XT, tale differenza si nota poi nelle prestazioni?
beh, non ho tale vga ma cmq non credo che si noti la differenza.
ninja750
08-03-2023, 14:48
Considerando che ci sono circa 40/50€ di differenza tra una RX 6700 xt e una RX 6750 XT, tale differenza si nota poi nelle prestazioni?
anche ci fossero non valgono 50€ di differenza
Gundam1973
08-03-2023, 14:57
Considerando che ci sono circa 40/50€ di differenza tra una RX 6700 xt e una RX 6750 XT, tale differenza si nota poi nelle prestazioni?
beh, non ho tale vga ma cmq non credo che si noti la differenza.
anche ci fossero non valgono 50€ di differenza
Tra le due...prenderei quella con il sistema di dissipazione migliore.
Se ambedue reference...quella che costa meno!
Polpi_91
08-03-2023, 23:16
Tra l'altro caso vuole che siano entrambe sapphire nitro+ stesso modello
Gundam1973
08-03-2023, 23:48
Tra l'altro caso vuole che siano entrambe sapphire nitro+ stesso modello
allora quella che costa meno! :sofico:
Domanda, se voglio tornare a una versione dei driver precedente, è sempre meglio usare il DDU oppure ormai si può fare direttamente dall'installazione AMD? Ho visto che c'è proprio un'opzione per il downgrade.
Vorrei aggiornare la Vga ormai vetusta e vorrei prendere la Sapphire RX 6600 Pulse che attualmente ha un buon prezzo, e montarla sulla mobo MSI X470 Gaming Plus Max solo che nella pagina del costruttore della mobo non mi da nessuna indicazione se è compatibile o meno e cercando in giro non ho trovato nulla di concreto, secondo voi è compatibile ?
Grazie
grey.fox
11-03-2023, 15:55
Non avrà nessun problema, vai tranquillo. Lato prestazioni se col budget puoi spingerti fino alla 6650XT hai sicuramente una buona marcia in più. (le trovi a poco più di 300)
Altrimenti la 6600 è comunque un best buy.
Vorrei aggiornare la Vga ormai vetusta e vorrei prendere la Sapphire RX 6600 Pulse che attualmente ha un buon prezzo, e montarla sulla mobo MSI X470 Gaming Plus Max solo che nella pagina del costruttore della mobo non mi da nessuna indicazione se è compatibile o meno e cercando in giro non ho trovato nulla di concreto, secondo voi è compatibile ?
Grazie
e perchè dovrebbero esserci problemi?le vga sono tutte retrocompatibili con il pci-e.
Ottimo grazie, vedo che sulla VGA riporta PCI-E 4 generazione devo dedurre che non la sfrutterò a pieno data la mia vecchia mobo ?
Polpi_91
13-03-2023, 10:32
Ottimo grazie, vedo che sulla VGA riporta PCI-E 4 generazione devo dedurre che non la sfrutterò a pieno data la mia vecchia mobo ?
non saturano la PCI-E la RX 6600, non satura neanche la RTX 4090
Ottimo grazie, vedo che sulla VGA riporta PCI-E 4 generazione devo dedurre che non la sfrutterò a pieno data la mia vecchia mobo ?
Fino a che sono supportate 8 o meglio ancora 16 linee non ci son perdite sensibili.
I problemi ci sono se si passa a 4 linee come le 6500/6400, allora usare una pci express 3 comporta un deficit di prestazioni abbastanza marcato
alethebest90
13-03-2023, 11:07
la 6650XT su quella mobo ti andrà a pci-e 3 x8 abbiamo gia visto su questo thread che una minima perdita di prestazioni l'avrai nei giochi in cui sarai cpu limited a risoluzioni full hd
attualmente con la mia cpu 5600x devo dire che viaggia alla grande....lo dico per cognizione di causa dato che ho la stessa mobo
Polpi_91
13-03-2023, 11:25
Una 4090 a PCI-e 4.0 x4 oppure PCI-e 3.0 x8 perde il 6% in fullHD quindi immagino che le VGA meno potenti soffrano ancora meno
Ottimo grazie, vedo che sulla VGA riporta PCI-E 4 generazione devo dedurre che non la sfrutterò a pieno data la mia vecchia mobo ?
dipende dalla vga e mi spiego meglio,prendiamo come esempio una vga pci-e gen 4 montata su mobo con il gen 3:
una pci-e x4 andrà piuttosto male.
una pci-e x8 a volte può perdere un pochino di performance e dipende dall'utilizzo.
invece una vga pci-e x16 gen4 di norma nn perderà performance se montata su pci-e gen3,poichè mediamente in grado di soddisfare la richiesta di dati della vga.
Polpi_91
13-03-2023, 11:29
dipende dalla vga e mi spiego meglio,prendiamo come esempio una vga pci-e gen 4 montata su mobo con il gen 3:
una pci-e x4 andrà piuttosto male.
una pci-e x8 a volte può perdere un pochino di performance e dipende dall'utilizzo.
invece una vga pci-e x16 gen4 di norma nn perderà performance se montata su pci-e gen3,poichè mediamente in grado di soddisfare la richiesta di dati della vga.
Almeno di non avere una TOP TOP di gamma basta un PCI-E 4.0 x4 oppure un PCI-E 3.0 x8
Polpi_91
13-03-2023, 11:33
Vorrei aggiornare la Vga ormai vetusta e vorrei prendere la Sapphire RX 6600 Pulse che attualmente ha un buon prezzo, e montarla sulla mobo MSI X470 Gaming Plus Max solo che nella pagina del costruttore della mobo non mi da nessuna indicazione se è compatibile o meno e cercando in giro non ho trovato nulla di concreto, secondo voi è compatibile ?
Grazie
Comunque la X470 Gaming Plus Max supporta due slot PCI-E 3.0 in configurazione X16/X0 oppure X8/X8
quindi se non hai un'altra scheda installata nello slot PCIE_4 la RX 6600 va a x16
Comunque la X470 Gaming Plus Max supporta due slot PCI-E 3.0 in configurazione X16/X0 oppure X8/X8
quindi se non hai un'altra scheda installata nello slot PCIE_4 la RX 6600 va a x16
no andrà in ogni caso a x8,la vga nn andrà mai oltre le specifiche di fabbrica.
Almeno di non avere una TOP TOP di gamma basta un PCI-E 4.0 x4 oppure un PCI-E 3.0 x8
no già una fascia media ne risente di questi limiti,senza andare su di fascia prendi una 3060ti o una rx 6700xt e mettile a x4 su gen 4 o a x8 su gen 3 e guarda quanto vanno male...
alethebest90
13-03-2023, 12:00
confermo che va a 3.0 x8
Polpi_91
13-03-2023, 13:14
https://www.techpowerup.com/review/pci-express-4-0-performance-scaling-radeon-rx-5700-xt/23.html
Test fatti con una RX 5700 XT (potenza tra la RX 6600 e RX 6600 XT) e a PCIe x16 2.0 (che equivale a PCIe x8 3.0) si ha -2% di performance in Full HD
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-pci-express-scaling/27.html
Qua si prova la RTX 3080 e a PCIe x16 2.0 o PCIe x8 3.0 si parla di -4% in tutti gli scenari
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html
Qui invece la RTX 4090. il PCIe x16 2.0 perde il 6% rispetto al PCIe x16 4.0
Credo che siano perdite risibili, ci sono fattori ben più impattanti che il PCIe x8 3.0
Polpi_91
13-03-2023, 13:15
confermo che va a 3.0 x8
se non hai nessun altro slot PCIe occupato dovrebbe andare a x16 3.0
VanCleef
13-03-2023, 13:22
se non hai nessun altro slot PCIe occupato dovrebbe andare a x16 3.0
Non credo perchè la GPU è massimo PCIe 4 x8, potrà andare a PCIe 3 x8 ma non a PCIe x16.
Un po' come le 6500 e 6400 che sono castrate a x4
se non hai nessun altro slot PCIe occupato dovrebbe andare a x16 3.0
una vga con le linee pci-e nn andrà MAI oltre le specifiche di fabbrica,una vga a x8 andrà sempre e solo esclusivamente massimo a x8,d'altronde se fisicamente ha solo 8 linee pci-e come fa ad andare a 16?è come se a un'auto esclusivamente a trazione anteriore gli chiedi il 4x4...
https://www.techpowerup.com/review/pci-express-4-0-performance-scaling-radeon-rx-5700-xt/23.html
Test fatti con una RX 5700 XT (potenza tra la RX 6600 e RX 6600 XT) e a PCIe x16 2.0 (che equivale a PCIe x8 3.0) si ha -2% di performance in Full HD
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-pci-express-scaling/27.html
Qua si prova la RTX 3080 e a PCIe x16 2.0 o PCIe x8 3.0 si parla di -4% in tutti gli scenari
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html
Qui invece la RTX 4090. il PCIe x16 2.0 perde il 6% rispetto al PCIe x16 4.0
Credo che siano perdite risibili, ci sono fattori ben più impattanti che il PCIe x8 3.0
test fatto anni fa con le prime vga gen 4 e con una rx 5700xt che come fascia era una medio alta,direi poco utile oggi.
Polpi_91
13-03-2023, 14:21
una vga con le linee pci-e nn andrà MAI oltre le specifiche di fabbrica,una vga a x8 andrà sempre e solo esclusivamente massimo a x8,d'altronde se fisicamente ha solo 8 linee pci-e come fa ad andare a 16?è come se a un'auto esclusivamente a trazione anteriore gli chiedi il 4x4...
test fatto anni fa con le prime vga gen 4 e con una rx 5700xt che come fascia era una medio alta,direi poco utile oggi.
per il fatto del PCIe mi ero dimenticato che la RX6600 era solo x8
comunque i test dimostrano che PICe 3.0 x8 (che ha la stessa banda passante di un PCIe x16 2.0) ha un impatto del 6% su una RTX 4090 quindi direi che non è così importante
Polpi_91
13-03-2023, 14:24
Comunque hanno fatto anche il test dello scaling della RX 6600 XT (che è sempre limitata a x8)
https://www.techpowerup.com/review/amd-radeon-rx-6600-xt-pci-express-scaling/26.html
PCIe x8 4.0 100%
PCIe x8 3.0 98%
PCIe x8 2.0 93%
PCIe x8 1.1 83%
Tra il 3.0 e il 4.0 in tutte le risoluzioni (1080p, 1440p, 4k) c'è un 2% di differenza. direi più che marginale
Comunque hanno fatto anche il test dello scaling della RX 6600 XT (che è sempre limitata a x8)
https://www.techpowerup.com/review/amd-radeon-rx-6600-xt-pci-express-scaling/26.html
PCIe x8 4.0 100%
PCIe x8 3.0 98%
PCIe x8 2.0 93%
PCIe x8 1.1 83%
Tra il 3.0 e il 4.0 in tutte le risoluzioni (1080p, 1440p, 4k) c'è un 2% di differenza. direi più che marginale
tra il gen 3 e 4 l'ho scritto anche sotto che di norma nn c'è differenza a x16 e a x8 a volte ci possono essere delle variazioni a seconda del gioco o di cosa stai facendo .
per il fatto del PCIe mi ero dimenticato che la RX6600 era solo x8
comunque i test dimostrano che PICe 3.0 x8 (che ha la stessa banda passante di un PCIe x16 2.0) ha un impatto del 6% su una RTX 4090 quindi direi che non è così importante
le 6400 e 6500 sono a x4,tutte le 6600 sono a x8 e dalla 6700 in su sono tutte a x16.
ma cmq la differenza c'è,oltretutto la 4090 scala malissimo sulle basse risoluzioni.
Polpi_91
13-03-2023, 14:36
tra il gen 3 e 4 l'ho scritto anche sotto che di norma nn c'è differenza a x16 e a x8 a volte ci possono essere delle variazioni a seconda del gioco o di cosa stai facendo ma.
sono situazioni talmente limite che nella maggior parte dei casi non fanno la differenza, c'è solo un gioco su tutta la suite che va oltre il 10% di differenza e uno al 6.3%
Farsi venire il mal di pancia perchè si ha una scheda madre che supporta solo il 3.0 è inutile.
Death Stranding in 1080p passa da 132.2 a 123.2 FPS di media
Hitman 3 da 121.8 a 105.4 fps
Tutto Max e sono i casi peggiori
sono situazioni talmente limite che nella maggior parte dei casi non fanno la differenza, c'è solo un gioco su tutta la suite che va oltre il 10% di differenza e uno al 6.3%
Farsi venire il mal di pancia perchè si ha una scheda madre che supporta solo il 3.0 è inutile.
Death Stranding in 1080p passa da 132.2 a 123.2 FPS di media
Hitman 3 da 121.8 a 105.4 fps
Tutto Max e sono i casi peggiori
stiamo dicendo la stessa cosa e nn ci capiamo,l'ho detto sotto con questa frase:
una pci-e x8 a volte può perdere un pochino di performance e dipende dall'utilizzo.
lo so che nn è una disastro e che puoi giocare lo stesso.
Polpi_91
13-03-2023, 14:44
Si Si
solo che questo calo lo considero talmente piccolo e trascurabile che manco lo considero
Si Si
solo che questo calo lo considero talmente piccolo e trascurabile che manco lo considero
;)
Polpi_91
13-03-2023, 22:08
Ottime notizie Grazie :D
anche perchè fare una VGA per il segmento medio/basso e poi necessitare di una piattaforma appena uscita sarebbe stato un nonsense
nessuno29
14-03-2023, 06:17
Cambiereste una 3070 per una 6900xt gioco in 1440p? In RT ci andrei a perdere?
sniperspa
14-03-2023, 07:40
Cambiereste una 3070 per una 6900xt gioco in 1440p? In RT ci andrei a perdere?
Se ti interessa l'RT lascerei proprio perdere
Cambiereste una 3070 per una 6900xt gioco in 1440p? In RT ci andrei a perdere?
Io si, sopratutto dopo aver provato la 6950xt di un amico, per quanto riguarda il RT dipende un po dai titoli ma si sa che gira meglio su Nvidia.
Parere personale sul ray trancing, visivamente in alcuni titoli è fantastico, in altri quasi non mi accorgo della differenza (comparative video viste nei vari benchmark), personalmente mi ricorda l'esperienza che feci anni fa con PhysX, con la 580 giocavo a framerate da Ps1, per gestirlo decentemente ho dovuto aspettare la 970 e poi è finito tutto a tarallucci e vino, cosa che non credo succederà con ray trancing, anzi, ne penso il contrario ma spaccarsi la testa adesso ihmo non ha senso, meglio godersi i giochi con qualche "ombra"in meno, tanto al prossimo giro sarà molto più gestibile da tutte le gpu.
Gyammy85
14-03-2023, 08:18
Da una 3070 a una 6900/6950xt non si guadagna? adesso capisco perché stanno al "95%"
Da una 3070 a una 6900/6950xt non si guadagna? adesso capisco perché stanno al "95%"
:asd: :( :(
Gyammy85
14-03-2023, 08:23
:asd: :( :(
Se in un forum come questo si arriva a queste conclusioni uno prima resta stupito, ma poi si rende conto che si, il 95% è più che plausibile
Se in un forum come questo si arriva a queste conclusioni uno prima resta stupito, ma poi si rende conto che si, il 95% è più che plausibile
Io mi mangiai le mani dopo qualche mese che avevo la 970 da 0.5 + 3.5 GB di Vram per non aver preso la 290x da 8 GB di Vram :asd:
StylezZz`
14-03-2023, 09:03
Cambiereste una 3070 per una 6900xt gioco in 1440p? In RT ci andrei a perdere?
In RT se la giocano, quindi guadagneresti prestazioni in raster e il doppio della VRAM.
Da una 3070 a una 6900/6950xt non si guadagna? adesso capisco perché stanno al "95%"
Se in un forum come questo si arriva a queste conclusioni uno prima resta stupito, ma poi si rende conto che si, il 95% è più che plausibile
Una volta ogni tanto sono d'accordo con te.
LurenZ87
14-03-2023, 09:26
Cambiereste una 3070 per una 6900xt gioco in 1440p? In RT ci andrei a perdere?Per curiosità, con quanta differenza monetaria e che modelli sono? Grazie.
Inviato dal mio Pixel 7 utilizzando Tapatalk
nessuno29
14-03-2023, 09:34
Per curiosità, con quanta differenza monetaria e che modelli sono? Grazie.
Inviato dal mio Pixel 7 utilizzando Tapatalk
La mia è una zotac mentre la 6900xt è una reference, dovrei aggiungere 150 euro e gioco in 1440p 144hz.
Al di là delle guerre di scuderia che poco mi importa è tardi forse per un cambio del genere? Con le 4070 che sono prossime o con le 7800 che però dubito a questo punto saranno competitive rispetto alla 6900.
Gyammy85
14-03-2023, 10:01
La mia è una zotac mentre la 6900xt è una reference, dovrei aggiungere 150 euro e gioco in 1440p 144hz.
Al di là delle guerre di scuderia che poco mi importa è tardi forse per un cambio del genere? Con le 4070 che sono prossime o con le 7800 che però dubito a questo punto saranno competitive rispetto alla 6900.
Sulle 6900 i prezzi stanno calando e potrebbe valerne la pena, ma in effetti le 7800 saranno lì in raster e meglio in rt, a parte l'arch più moderna e magari il supporto nativo a fsr3 che potrebbe usare gli ia cores
La 4070 andrà stabilmente meno rispetto alle 7800 in base alle specifiche trapelate
Cambiereste una 3070 per una 6900xt gioco in 1440p? In RT ci andrei a perdere?
in rt +/- se la giocano,in raster guadagni circa un 30%.
io il cambio nn lo farei e mi butterei più sulle nuove gen come per esempio una rx 7900xt se nn ti interessa il ray tracing.
Gyammy85
14-03-2023, 16:44
in rt +/- se la giocano,in raster guadagni circa un 30%.
io il cambio nn lo farei e mi butterei più sulle nuove gen come per esempio una rx 7900xt se nn ti interessa il ray tracing.
Manco una 7900xt va bene per rt? annamo bene
Manco una 7900xt va bene per rt? annamo bene
le amd nn sono mai andate forte in RT ma spingono tanto in rasterizzazione.
Gyammy85
14-03-2023, 16:53
le amd nn sono mai andate forte in RT ma spingono tanto in rasterizzazione.
Si ma parliamo mediamente di perf da 3090 in rt, senza pigliare necessariamente cp2077 che ormai anche i sassi sanno che è un techdemo con un gioco incluso
Passi la 2080ti che era beta (ma tirava tantissimo 100 tf solo per i raggi!!!!), però mi risulta che con una 3090 "si gioca una meraviglia" in rt
Si ma parliamo mediamente di perf da 3090 in rt, senza pigliare necessariamente cp2077 che ormai anche i sassi sanno che è un techdemo con un gioco incluso
Passi la 2080ti che era beta (ma tirava tantissimo 100 tf solo per i raggi!!!!), però mi risulta che con una 3090 "si gioca una meraviglia" in rt
esatto,performance di vga di una gen precedente...
ripeto amd in rt nn è mai andata forte ma spinge tanto in raster.
Io si, sopratutto dopo aver provato la 6950xt di un amico, per quanto riguarda il RT dipende un po dai titoli ma si sa che gira meglio su Nvidia.
Parere personale sul ray trancing, visivamente in alcuni titoli è fantastico, in altri quasi non mi accorgo della differenza (comparative video viste nei vari benchmark), personalmente mi ricorda l'esperienza che feci anni fa con PhysX, con la 580 giocavo a framerate da Ps1, per gestirlo decentemente ho dovuto aspettare la 970 e poi è finito tutto a tarallucci e vino, cosa che non credo succederà con ray trancing, anzi, ne penso il contrario ma spaccarsi la testa adesso ihmo non ha senso, meglio godersi i giochi con qualche "ombra"in meno, tanto al prossimo giro sarà molto più gestibile da tutte le gpu.
Come hairworks
Come hairworks
Anche, a quanto ricordo l'ho visto solo su The Witcher 3, ma lo tenevo disattivato.
stefano192
16-03-2023, 12:24
Come hairworks
Se stai paragonando l'hairworks con il ray tracing, per favore non farlo :asd: son due robe davvero completamente diverse, e pure il physx c'entra poco.
Dipende tutto da come viene implementato in un titolo ovviamente, ma basta attivare la global illumination su cp2077 o the witcher 3 per notare una differenza abissale tra le scene visto che l'illuminazione viene gestita in maniera completamente diversa.
Detto questo, ad oggi spendere sui 1000€ per AMD dove in RT arranca ancora parecchio per me non ha senso. Ci spendi un 100-200€ in più che tanto già su una cifra del genere è "poca roba", ma almeno stai tranquillo per un po', visto che i prossimi giochi lo implementeranno sempre di più.
Parlo da possessore di 6800, e purtroppo devo ammettere che non poter sfruttare il RT a buoni framerate, mi rode un po' in giochi tipo quelli citati sopra dove la differenza è davvero notevole tra on/off. Poi ci sono altri titoli molto più leggeri che fanno uso di RT non spinto tipo Guardians of the Galaxy, e lì riesci a gestirlo bene senza troppi problemi.
Poi per carità, la differenza la fanno anche tecnologie di upscaling come DLSS/FSR visto che pure le NVIDIA senza DLSS farebbero un po' di fatica a girare bene. Però è indubbio che AMD è indietro sul RT, e ok per la serie 6000, ma per la 7000 le cifre che richiedono sono da folli per quello che offrono.
Se stai paragonando l'hairworks con il ray tracing, per favore non farlo :asd: son due robe davvero completamente diverse
E chi lo nega?
stefano192
16-03-2023, 15:08
E chi lo nega?
Ma infatti ho scritto: "Se stai paragonando l'hairworks con il ray tracing".
Purtroppo dal tuo messaggio un semplice "come l'hairworks" non si capisce molto cosa intendi :) Poi in parte rispondevo al messaggio che hai quotato, era un prolungamento del discorso, non riferito direttamente a te.
nessuno29
16-03-2023, 15:15
Se stai paragonando l'hairworks con il ray tracing, per favore non farlo :asd: son due robe davvero completamente diverse, e pure il physx c'entra poco.
Dipende tutto da come viene implementato in un titolo ovviamente, ma basta attivare la global illumination su cp2077 o the witcher 3 per notare una differenza abissale tra le scene visto che l'illuminazione viene gestita in maniera completamente diversa.
Detto questo, ad oggi spendere sui 1000€ per AMD dove in RT arranca ancora parecchio per me non ha senso. Ci spendi un 100-200€ in più che tanto già su una cifra del genere è "poca roba", ma almeno stai tranquillo per un po', visto che i prossimi giochi lo implementeranno sempre di più.
Parlo da possessore di 6800, e purtroppo devo ammettere che non poter sfruttare il RT a buoni framerate, mi rode un po' in giochi tipo quelli citati sopra dove la differenza è davvero notevole tra on/off. Poi ci sono altri titoli molto più leggeri che fanno uso di RT non spinto tipo Guardians of the Galaxy, e lì riesci a gestirlo bene senza troppi problemi.
Poi per carità, la differenza la fanno anche tecnologie di upscaling come DLSS/FSR visto che pure le NVIDIA senza DLSS farebbero un po' di fatica a girare bene. Però è indubbio che AMD è indietro sul RT, e ok per la serie 6000, ma per la 7000 le cifre che richiedono sono da folli per quello che offrono.
Discorso condivisibile ma su cyberpunk la global illumination manco si vede, l'unica cosa piacevole sono i riflessi.
Qui tre screen in condizione perfetta per la GI notte + nebbia
https://ibb.co/TWr4Sbx
https://ibb.co/JsBSJxb
https://ibb.co/GRVKQPK
i riflessi fanno tutta la differenza del mondo la GI meh e sulla 3070 mi costa il 50% dei frame.
stefano192
16-03-2023, 18:19
Discorso condivisibile ma su cyberpunk la global illumination manco si vede, l'unica cosa piacevole sono i riflessi.
Qui tre screen in condizione perfetta per la GI notte + nebbia
https://ibb.co/TWr4Sbx
https://ibb.co/JsBSJxb
https://ibb.co/GRVKQPK
i riflessi fanno tutta la differenza del mondo la GI meh e sulla 3070 mi costa il 50% dei frame.
Mmm primo screen RT off, secondo solo GI e terzo GI+riflessi? Corretto o sto sbagliando?
Secondo me è il contrario invece. GI >>> riflessi, di fatto sto giocando con GI media, e il resto off. Mi piacerebbe attivarli ma vanno ulteriormente ad aggravare la situazione.
Esempi con la sola GI attiva.
https://imgsli.com/MTYyNzA3
https://imgsli.com/MTYyNzEw
Poi sicuramente cambia da scena a scena. Prendi una dove hai tante superfici riflettenti, allora i riflessi ci sta che facciano la loro sporca figura. L'illuminazione secondo me invece la applichi praticamente in ogni situazione, e appunto la reputo più importante come impostazione. Poi son scelte personali.
nessuno29
16-03-2023, 20:58
No primo senza Rt, secondo solo riflessi, terzo riflessi + GI.
greatzalman
18-03-2023, 21:51
Ho acquistato la sapphire RX 6650xt 8 gb gddr6. Qualche consiglio sui settaggi per sfruttarla bene? Gioco in full HD 1080, non mi interessa il 4k, che monitor consigliate? (ho un vecchio vga del 2008....)
Intel i3-12100F
Assassin X 120 R SE
MSI PRO B660M-A WIFI DDR4
WD Blue SN570 1TB M.2 PCIe NVMe
Kingston Fury Beast 16Gb (2X8Gb) 3200Mhz Ddr4
LG Flatron W2234S
Seasonic FOCUS GX-650
Polpi_91
18-03-2023, 23:06
Se stai su 1080p va bene un 144Hz, i 240Hz servono solo se giochi FPS ad altissimo livello
unica cosa quel processore limita parecchio la GPU
Se stai su 1080p va bene un 144Hz, i 240Hz servono solo se giochi FPS ad altissimo livello
unica cosa quel processore limita parecchio la GPU
un 12100 gestisce benissimo una 6650xt.
Ho acquistato la sapphire RX 6650xt 8 gb gddr6. Qualche consiglio sui settaggi per sfruttarla bene? Gioco in full HD 1080, non mi interessa il 4k, che monitor consigliate? (ho un vecchio vga del 2008....)
Intel i3-12100F
Assassin X 120 R SE
MSI PRO B660M-A WIFI DDR4
WD Blue SN570 1TB M.2 PCIe NVMe
Kingston Fury Beast 16Gb (2X8Gb) 3200Mhz Ddr4
LG Flatron W2234S
Seasonic FOCUS GX-650
budget?
a che game giochi?
StylezZz`
18-03-2023, 23:52
un 12100 gestisce benissimo una 6650xt
Quoto, ma essendo un 4c/8t potrebbe essere limitato in alcuni giochi.
Quoto, ma essendo un 4c/8t potrebbe essere limitato in alcuni giochi.
secondo me ce la fa senza problemi.
Buonasera a tutti, sapete se la 6650xt "soffre" di problemi con il multi monitor ?
Con la configurazione in firma ho collegato alla VGA una Tv via HDMI e un monitor G2460PG in Display Port (monitor G-Sync), mi capita che il monitor G-Sync perda la risoluzione e che torni in 640x480, oggi me lo ha fatto due volte, poi ho avuto un crash del segnale video su entrambi i monitor al rientro dalla sospensione.
Vi è mai capitata una situazione simile ? grazie
greatzalman
19-03-2023, 21:28
budget?
a che game giochi?
Non ho problemi di budget, desidero un monitor che possa sfruttare la 6650xt al massimo per il full HD 1080p, non mi interessa il 4k. Che monitor consigli? Gioco giochi in terza persona alla gears of war.
grey.fox
19-03-2023, 21:50
Buonasera a tutti, sapete se la 6650xt "soffre" di problemi con il multi monitor ?
Con la configurazione in firma ho collegato alla VGA una Tv via HDMI e un monitor G2460PG in Display Port (monitor G-Sync), mi capita che il monitor G-Sync perda la risoluzione e che torni in 640x480, oggi me lo ha fatto due volte, poi ho avuto un crash del segnale video su entrambi i monitor al rientro dalla sospensione.
Vi è mai capitata una situazione simile ? grazie
Io ho il monitor principale collegato in Display port e la TV in hdmi e non ho mai avuto problemi di sorta con tutte le schede che ho usato in questo modo. Rx570, 6600XT e 6700XT.
Io ho il monitor principale collegato in Display port e la TV in hdmi e non ho mai avuto problemi di sorta con tutte le schede che ho usato in questo modo. Rx570, 6600XT e 6700XT.
grazie per il feedback grey.fox, proverò ad aggiornare il driver video anche se il problema mi si è presentato solo con il monitor dotato di hw GSync ... saranno i LoHackers verdi che mi mandano in crash il Pc :sofico:
Buonasera a tutti, sapete se la 6650xt "soffre" di problemi con il multi monitor ?
Con la configurazione in firma ho collegato alla VGA una Tv via HDMI e un monitor G2460PG in Display Port (monitor G-Sync), mi capita che il monitor G-Sync perda la risoluzione e che torni in 640x480, oggi me lo ha fatto due volte, poi ho avuto un crash del segnale video su entrambi i monitor al rientro dalla sospensione.
Vi è mai capitata una situazione simile ? grazie
Io la mia 6700Xt l'ho collegata con il DP al 1 monitor ed ho un secondo monitor piuttosto vecchiotto vollegato in VGA+Adattatore VGA-HDMI e non ho mai riscontrato problemi.
The Snap!
21-03-2023, 09:57
edit
alethebest90
21-03-2023, 09:59
a che risoluzione giochi ?
mi fai sapere anche con che settaggi cosi mi faccio un'idea anche io :D
The Snap!
21-03-2023, 11:19
a che risoluzione giochi ?
mi fai sapere anche con che settaggi cosi mi faccio un'idea anche io :D
1080p tutto su ULTRA con FSR 2.0 settato su Qualità.
Rimetterò gli screen domani :)
Al momento, mi è sembrato di vedere che Hogwarts Legacy è un gioco che sfrutta poco la CPU ma molto la GPU.
Vale la pena secondo voi spendere 60 euro in più per prendere una 6700 con la 6650xt a 300?
alethebest90
21-03-2023, 12:04
1080p tutto su ULTRA con FSR 2.0 settato su Qualità.
Rimetterò gli screen domani :)
Al momento, mi è sembrato di vedere che Hogwarts Legacy è un gioco che sfrutta poco la CPU ma molto la GPU.
grazie per me una buona notizia, si a quanto pare è esoso di ram di sistema e anche video però forse a 1080p è piu che gestibile
Vale la pena secondo voi spendere 60 euro in più per prendere una 6700 con la 6650xt a 300?
Assolutamente si.
Assolutamente si.Parlo sempre della liscia, non la xt
Vale la pena secondo voi spendere 60 euro in più per prendere una 6700 con la 6650xt a 300?
Considera che la 6700 10gb va circa un 10% in più della 6650xt e ovviamente ha più vram.
Con il tuo sistema però sarai cpu limited a 1080p mentre inizieresti a vedere la differenza a 1440p
StylezZz`
21-03-2023, 14:32
Vale la pena secondo voi spendere 60 euro in più per prendere una 6700 con la 6650xt a 300?
Con il tuo sistema non andrei oltre una 6650 XT.
Vale la pena secondo voi spendere 60 euro in più per prendere una 6700 con la 6650xt a 300?
con il tuo sistema direi che sei assolutamente cpu limited con una amd serie 6000 o nvidia equivalente.
Gundam1973
21-03-2023, 17:06
Vale la pena secondo voi spendere 60 euro in più per prendere una 6700 con la 6650xt a 300?
Senza neanche pensarci...6700 tutta la vita per 60€.:sofico:
Anche con la tua cpu! :D
Anche con la tua cpu! :D
Ma anche avesse un Celeron Mendocino
Raga il PC è da cambiare in toto, prenderei un 5600
stefano192
21-03-2023, 18:50
edit
Gundam1973
21-03-2023, 19:07
Raga il PC è da cambiare in toto, prenderei un 5600
a maggior ragione... 6700 senza neanche porsi la domanda! :D
Raga il PC è da cambiare in toto, prenderei un 5600
allora le cose cambiano,su che risoluzione vorresti giocare?
The Snap!
21-03-2023, 21:27
grazie per me una buona notizia, si a quanto pare è esoso di ram di sistema e anche video però forse a 1080p è piu che gestibile
assolutamente si.
Gyammy85
22-03-2023, 08:28
Per chi volesse cambiare cpu o passare ad am4, ricordo che dal 5600 al 5950x le perf in game sono più o meno simili, a parte ovviamente qualcosina che cambia in base alle frequenze, se si vuole di più bisogna optare per il 5800x3d
The Snap!
22-03-2023, 08:31
Hogwarts Legacy 1080p settaggi ULTRA e FSR 2.0 settato su qualità :D
https://i.postimg.cc/fWHZmdZr/Immagine.png (https://postimg.cc/MXjh8vn7)
https://i.postimg.cc/F1tT3GKS/Immagine2.png (https://postimg.cc/0KfGqYD5)
https://i.postimg.cc/d1pbN21s/Immagine3.png (https://postimg.cc/YGNDhmYZ)
https://i.postimg.cc/W3BywsWt/Immagine4.png (https://postimg.cc/TLcQRvXX)
https://i.postimg.cc/XYn9Bt8W/immagine-2023-03-22-094042018.png (https://postimg.cc/rKYDvn3Z)
Per essere una seconda release di driver AMD con supporto al gioco, non sono niente male. :)
allora le cose cambiano,su che risoluzione vorresti giocare?2k dopo anni di 1080p.
Per la marca una vale l'altra? Preferisco sempre soluzioni con 2 ventole
Gyammy85
22-03-2023, 09:17
2k dopo anni di 1080p.
Per la marca una vale l'altra? Preferisco sempre soluzioni con 2 ventole
Ormai sono tutte molto simili, io ho la reference ed è ottima
The Snap!
22-03-2023, 09:24
Vale la pena secondo voi spendere 60 euro in più per prendere una 6700 con la 6650xt a 300?
Io vado contro corrente e secondo me è no..io volevo prenderla ad esempio, poi ho puntato la 6700XT ma alla fine ho deciso di aspettare la fascia media delle RX7000 per vedere cosa salta fuori. Onestamente poi in 2k e con certi titoli la 6700 liscia non è proprio adeguata se vuoi giocare con grafica a palla. Poi dipende ovviamente dal refresh del monitor (se 60 o 75hz per giocare a 60 o 75 fps, potrebbe andare bene, ma io comunque aspetterei la fascia media delle 7000, hai pur sempre un' ottima vga).
Come marca, con Sapphire vai sul sicuro, è una spanna sopra gli altri brand a parer mio. Ma sono tutte valide alla fine. Sapphire comunque è un punto di riferimento per AMD, da anni ormai. Soprattutto la serie NITRO+, ma della 6700 liscia non c'è una NITRO+ ma la PULSE se non sbaglio, sempre validissma ovviamente. Le NITRO+ sono più selezionate come come chip e ram, VRM migliori e hanno una dissipazione un pò migliore, tant' è che costano qualcosa in più. La mia 6600XT è una Sapphire NITRO+ e la faccio viaggiare con i valori TDC ed EDC sbloccati tramite More Power Tool, per raggiungere le prestazioni della 6650XT. Di serie comunque ha un bios con valori di erogazione di corrente già pompati per farla boostare più delle altre 6600XT con prestazioni migliori ovviamente. Il vantaggio delle 6650 è che montano ram Samsung che salgono di frequenza un pò meglio delle Micron montate sulle 6600, le mie oltre i 2170mhz rilasciano errori ad esempio. Potrei alzarne i voltaggi con More Power Tool e provare a vedere se riesco a farle salire oltre, ma non voglio rischiare di danneggiarle.
stefano192
22-03-2023, 09:32
Secondo me no..io voleva prenderla ad esempio, ma sto aspettando la fascia media delle RX7000 per vedere cosa salta fuori. Onestamente poi in 2k e con certi titoli la 6700 liscia non è proprio adeguata se vuoi giocare con grafica a palla. Poi dipende ovviamente dal refresh del monitor (se 60 o 75hz per giocare a 60 o 75 fps, potrebbe andare bene, ma io comunque aspetterei la fascia media delle 7000, hai pur sempre un' ottima vga).
Come marca, con Sapphire vai sul sicuro, è una spanna sopra gli altri brand a parer mio. Ma sono tutte valide alla fine. Sapphire comunque è un punto di riferimento per AMD, da anni ormai. Soprattutto la serie NITRO+, ma della 6700 liscia non c'è una NITRO+ se non sbaglio.
La questione è che AMD ha totalmente sbagliato i prezzi della serie 7000 (opinione personale ma in realtà condivisa anche dai vari canali tech), e quindi difficile che butti fuori qualcosa di ottimo nella fascia media. Significherebbe comunque rivedere i prezzi delle 7900 a ribasso, non so.
alethebest90
22-03-2023, 09:52
La questione è che AMD ha totalmente sbagliato i prezzi della serie 7000 (opinione personale ma in realtà condivisa anche dai vari canali tech), e quindi difficile che butti fuori qualcosa di ottimo nella fascia media. Significherebbe comunque rivedere i prezzi delle 7900 a ribasso, non so.
quoto
Io vado contro corrente e secondo me è no..io volevo prenderla ad esempio, poi ho puntato la 6700XT ma alla fine ho deciso di aspettare la fascia media delle RX7000 per vedere cosa salta fuori. Onestamente poi in 2k e con certi titoli la 6700 liscia non è proprio adeguata se vuoi giocare con grafica a palla. Poi dipende ovviamente dal refresh del monitor (se 60 o 75hz per giocare a 60 o 75 fps, potrebbe andare bene, ma io comunque aspetterei la fascia media delle 7000, hai pur sempre un' ottima vga).
Come marca, con Sapphire vai sul sicuro, è una spanna sopra gli altri brand a parer mio. Ma sono tutte valide alla fine. Sapphire comunque è un punto di riferimento per AMD, da anni ormai. Soprattutto la serie NITRO+, ma della 6700 liscia non c'è una NITRO+ ma la PULSE se non sbaglio, sempre validissma ovviamente. Le NITRO+ sono più selezionate come come chip e ram, VRM migliori e hanno una dissipazione un pò migliore, tant' è che costano qualcosa in più. La mia 6600XT è una Sapphire NITRO+ e la faccio viaggiare con i valori TDC ed EDC sbloccati tramite More Power Tool, per raggiungere le prestazioni della 6650XT. Di serie comunque ha un bios con valori di erogazione di corrente già pompati per farla boostare più delle altre 6600XT con prestazioni migliori ovviamente. Il vantaggio delle 6650 è che montano ram Samsung che salgono di frequenza un pò meglio delle Micron montate sulle 6600, le mie oltre i 2170mhz rilasciano errori ad esempio. Potrei alzarne i voltaggi con More Power Tool e provare a vedere se riesco a farle salire oltre, ma non voglio rischiare di danneggiarle.
oltre a sapphire, consiglio XFX sopratutto i modelli MERC
Gundam1973
22-03-2023, 10:04
Per 60€ in piu tra 6650xt e 6700 liscia non c'è neanche da porsi la domanda....sopratutto se è in previsione una nuova cpu.
Considerando poi che sale anche a 2K....ma che dubbi avete? :stordita:
Capirei se l'utente avesse problemi di budget e gia la 6650xt fosse al suo limite e si parlasse di metterci sopra altri 100€....ma non mi sembra questo il caso.
grey.fox
22-03-2023, 10:10
Mah, io a suo tempo mi sono guardato molti test e mi sono convinto che la 6700 liscia non è ne carne ne pesce. Più vicina alla 6650XT che alla 6700XT come prestazioni.
Quindi per me o si risparmia con la 6650XT o si fa il salto alla 6700XT.
Tra la 6700 liscia nuova e la 6700XT Red Devil usata, io ho scelto la seconda.
Ovviamente è un parere personale.
The Snap!
22-03-2023, 10:11
La questione è che AMD ha totalmente sbagliato i prezzi della serie 7000 (opinione personale ma in realtà condivisa anche dai vari canali tech), e quindi difficile che butti fuori qualcosa di ottimo nella fascia media. Significherebbe comunque rivedere i prezzi delle 7900 a ribasso, non so.
Vero, ma se così fosse la serie 6xxx attuale scenderebbe di prezzo ulteriormente al lancio della fascia media 7xxx e potresti prendere una 6700xt a prezzo di una liscia.
The Snap!
22-03-2023, 10:14
Mah, io a suo tempo mi sono guardato molti test e mi sono convinto che la 6700 liscia non è ne carne ne pesce. Più vicina alla 6650XT che alla 6700XT come prestazioni.
Quindi per me o si risparmia con la 6650XT o si fa il salto alla 6700XT.
Tra la 6700 liscia nuova e la 6700XT Red Devil usata, io ho scelto la seconda.
Ovviamente è un parere personale.
Stessa cosa vale per me..si parlava a suo tempo di driver più ottimizzati per le 6700 liscie in modo tale che queste staccassero in prestazioni le 6650, ma così non mi pare sia stato. Per me, o si fa il salto alla XT o il cambio non ha senso, la differenza rispetto alla 6650 è veramente risicata dai test in rete. 60 euro di differenza? Sono troppi per una manciata di fps.
StylezZz`
22-03-2023, 10:15
Raga il PC è da cambiare in toto, prenderei un 5600
2k dopo anni di 1080p.
Per la marca una vale l'altra? Preferisco sempre soluzioni con 2 ventole
Allora a questo punto io aggiungerei 20-30 euro e mi prenderei la 6700 XT 12GB, in questo momento su trovaprezzi vedo la Sapphire a 400 spedita.
stefano192
22-03-2023, 10:39
Vero, ma se così fosse la serie 6xxx attuale scenderebbe di prezzo ulteriormente al lancio della fascia media 7xxx e potresti prendere una 6700xt a prezzo di una liscia.
Ah questo assolutamente vero, prima stavo per scrivere che ogni tanto mi pare che escano delle buone occasioni sulle 6800 (e forse anche XT) sotto i 500/550€.
The Snap!
22-03-2023, 11:00
Ah questo assolutamente vero, prima stavo per scrivere che ogni tanto mi pare che escano delle buone occasioni sulle 6800 (e forse anche XT) sotto i 500/550€.
Vale la pena aspettare quindi avendo già un' ottima 6650xt, oppure se non si può aspettare, puntare alla 6700XT a prezzo vantaggioso...e già a 400 euro spedita potrebbe esserlo. Io da sempre mi sono imposto un budget sulle VGA, 400 euro massimi di spesa ma deve valerna la pena davvero. Piuttosto tiro avanti con la mia finchè posso e scendo di dettagli sulla grafica per mantenere i 60 fps di media col freesync. Non gioco a sparatutto on line e la fluidità dei 60 fps va alla grande per godersi un qualsiasi gioco. (Con un monitor Freesync si ha poi un range ampio di fluidità compreso fra i 48 e i 74 hz/fps entro i quali il gioco risulta fluido senza stuttering). Tutto il resto è fuffa per gamers incalliti che giocano on line.
Sicuramente a refresh più alti (144hz) avresti uno sfocamento di immagini in movimento minore, ma devi adeguare poi tutto il sotto sistema hardware, che deve stare dietro al refresh del monitor, con considerevole aumento di spesa generale. Vale la pena? Per i giocatori incalliti probabilmente si, PER ME che sono "vecchio" no!
PS: fermo restando che chi gioca on line in maniera molto competitiva, setta la grafica al minimo per avere il massimo dall' input lag (input lag azzerato stando nel range del refresh del monitor)...quindi, di cosa stiamo parlando? Le prestazioni di una vga da 400 euro bastano e avanzano per fare tutto.
La 6700 liscia era stata pensata come scheda da mining, tanto che in molti frangenti consuma tanto quanto una 6600 XT e meno di una 6650 XT.
Ha sicuramente un paio di vantaggi rispetto a queste ultime: 2gb di vram in più (vabbè, niente per cui strapparsi i capelli) e il bus pcie x16 pieno contro x8 delle 66xx (perciò minor rischio di perdita di prestazioni in caso venga inserita in sistemi più datati, pcie 3.0).
A parte questo, mi trovo più a propendere per chi dice che non sia ne carne ne pesce. Appena presentata costava una trentina di euro più delle 66xx e per quella cifra, per quanto il salto prestazionale fosse molto limitato, e considerando i bonus sopraelencati, ci poteva stare.
A 60€ in più... meh. A quel punto farei lo sforzo in più di aggiungere qualcosa e puntare ad una 67xx XT per avere un boost prestazionale sostanziale.
Detto questo, devo ammettere che anche io sono molto indeciso, perchè stavo valutando anche io la 6700 XT. Però spendere 400€ o più (nel caso decida di prendere non la più economica, ma quella col design che preferisco) per una scheda che ha più di 2 anni sul groppone e che in alcuni casi mi costringe a scendere a compromessi (sia a 1440p che a 1080p), mi fa storcere un pò il naso.
https://youtu.be/iHzcdr3wL3E
E' che al momento è vero che è una delle poche schede video che abbia senso, solo che ha senso nel contesto di un mercato che ha perso la bussola e non ha senso, perciò un eventuale acquisto penso mi lascerebbe un pò di retrogusto amaro... :boh:
ninja750
22-03-2023, 16:11
se si vuole di più bisogna optare per il 5800x3d
che però in 1440p praticamente non da nessun boost ;)
Ragazzi che cpu mi consigliate di affiancare alla 6650xt per avere un boost in game a 1080p e qualcosa in 1440p?
Ha senso un 7800x3d?
Della configurazione in firma terrei la vga e l'alimentatore che sono nuovi.
StylezZz`
22-03-2023, 16:34
Ragazzi che cpu mi consigliate di affiancare alla 6650xt per avere un boost in game a 1080p e qualcosa in 1440p?
Ha senso un 7800x3d?
Della configurazione in firma terrei la vga e l'alimentatore che sono nuovi.
Sarebbe sprecato, su AM4 ti consiglierei il 5600 oppure il 5700x, su AM5 il 7600x basta e avanza.
Sarebbe sprecato, su AM4 ti consiglierei il 5600 oppure il 5700x, su AM5 il 7600x basta e avanza.
Il 7600x lo avevo addocchiato anche io, non avesse la reputazione di essere letteralmente un forno :muro:
Ragazzi che cpu mi consigliate di affiancare alla 6650xt per avere un boost in game a 1080p e qualcosa in 1440p?
Ha senso un 7800x3d?
Della configurazione in firma terrei la vga e l'alimentatore che sono nuovi.
https://youtu.be/wF7Vm4fIxTc
Già con un R5 5600 staresti maxando la scheda il 90% delle volte.
https://youtu.be/wF7Vm4fIxTc
Già con un R5 5600 staresti maxando la scheda il 90% delle volte.
grazie Cyfer, appena rientro a casa guardo il video :mano:
Polpi_91
22-03-2023, 17:04
Con un 5600 sei più che a posto
grey.fox
22-03-2023, 17:05
Curiosità: quando consigliate il 5600 intendete proprio il liscio?
alethebest90
22-03-2023, 17:08
La 6700 liscia era stata pensata come scheda da mining, tanto che in molti frangenti consuma tanto quanto una 6600 XT e meno di una 6650 XT.
Ha sicuramente un paio di vantaggi rispetto a queste ultime: 2gb di vram in più (vabbè, niente per cui strapparsi i capelli) e il bus pcie x16 pieno contro x8 delle 66xx (perciò minor rischio di perdita di prestazioni in caso venga inserita in sistemi più datati, pcie 3.0).
A parte questo, mi trovo più a propendere per chi dice che non sia ne carne ne pesce. Appena presentata costava una trentina di euro più delle 66xx e per quella cifra, per quanto il salto prestazionale fosse molto limitato, e considerando i bonus sopraelencati, ci poteva stare.
A 60€ in più... meh. A quel punto farei lo sforzo in più di aggiungere qualcosa e puntare ad una 67xx XT per avere un boost prestazionale sostanziale.
Detto questo, devo ammettere che anche io sono molto indeciso, perchè stavo valutando anche io la 6700 XT. Però spendere 400€ o più (nel caso decida di prendere non la più economica, ma quella col design che preferisco) per una scheda che ha più di 2 anni sul groppone e che in alcuni casi mi costringe a scendere a compromessi (sia a 1440p che a 1080p), mi fa storcere un pò il naso.
https://youtu.be/iHzcdr3wL3E
E' che al momento è vero che è una delle poche schede video che abbia senso, solo che ha senso nel contesto di un mercato che ha perso la bussola e non ha senso, perciò un eventuale acquisto penso mi lascerebbe un pò di retrogusto amaro... :boh:
le 6700xt su ebay stanno andando via forte, sto provando in molte aste a prendermene una ma superano quasi tutte i 300€ e io non voglio spenderci piu di tanto...certo mi piacerebbe la red devil oppure la msi gaming x ma per avere un prezzo basso bisgona accontentarsi
grey.fox
22-03-2023, 17:15
le 6700xt su ebay stanno andando via forte, sto provando in molte aste a prendermene una ma superano quasi tutte i 300€ e io non voglio spenderci piu di tanto...certo mi piacerebbe la red devil oppure la msi gaming x ma per avere un prezzo basso bisgona accontentarsi
Guarda, io sono riuscito a prendere un mese fa una RD con 1 anno di vita a 330, piazzando la mia 6600XT a 270. Mi è sembrato ancora un ottimo prezzo.
grey.fox
22-03-2023, 17:18
Hogwarts Legacy 1080p settaggi ULTRA e FSR 2.0 settato su qualità :D
https://i.postimg.cc/fWHZmdZr/Immagine.png (https://postimg.cc/MXjh8vn7)
https://i.postimg.cc/F1tT3GKS/Immagine2.png (https://postimg.cc/0KfGqYD5)
https://i.postimg.cc/d1pbN21s/Immagine3.png (https://postimg.cc/YGNDhmYZ)
https://i.postimg.cc/W3BywsWt/Immagine4.png (https://postimg.cc/TLcQRvXX)
https://i.postimg.cc/XYn9Bt8W/immagine-2023-03-22-094042018.png (https://postimg.cc/rKYDvn3Z)
Per essere una seconda release di driver AMD con supporto al gioco, non sono niente male. :)
Personalmente parlando se avessi sempre un framerate superiore ai canonici 60 fps farei a meno di usare FSR.
StylezZz`
22-03-2023, 17:21
Curiosità: quando consigliate il 5600 intendete proprio il liscio?
Esatto, risparmi 40€ rinunciando alla X e -200mhz (che in gioco non ti cambiano nulla, forse mezzo fps), e se proprio ci tieni lo puoi fare andare uguale al 5600x stock o anche più, a meno che non becchi un silicio sfigato.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.