PDA

View Full Version : AMD Radeon RX 7900: caratteristiche e architettura RDNA 3


Redazione di Hardware Upg
14-11-2022, 14:10
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/6421/amd-radeon-rx-7900-caratteristiche-e-architettura-rdna-3_index.html

Mancano ancora 4 settimane al debutto ufficiale delle prime due schede video AMD basate su architettura RDNA 3, i modelli Radeon RX 7900 XTX e Radeon RX 7900 XT. Vediamone più in dettaglio le caratteristiche costruttive e tecniche, oltre a un approfondimento sull'architettura RDNA 3 e sull'impatto dello sviluppo software per l'ecosistema.

Click sul link per visualizzare l'articolo.

Ripper89
14-11-2022, 14:37
al day 1 farò di tutto per accaparrarmene una.

Marckus87
14-11-2022, 14:55
se i dati fossero confermati in raster strabattono la 4080

demon77
14-11-2022, 15:06
Vabbeh.
Per tirare qualsiasi tipo di conclusione sempre attendere i bench VERI.. ai quali affiancare consumi e soprattutto prezzi.

Perchè se cammina come una 4080 mi aspetto che costi come una 4080.

Phopho
14-11-2022, 15:51
certo che almeno chiudere l'NDA 24 ore prima della commercializzazione potevano farlo...

Arrivati a questo punto non ci resta che attendere il prossimo 13 dicembre, giorno nel quale AMD e i partner daranno avvio alle vendite delle nuove schede oltre che data di scadenza dell'embargo sulle prestazioni velocistiche delle nuove schede basate su architettura RDNA3.

ciocia
14-11-2022, 16:01
A quando i modelli inferiori, 7800 e 7700?

lzeppelin
14-11-2022, 16:25
Qui c'è tanta carne al fuoco, come per le 4000 d'altro canto.
Non hanno mancato di innovazione i due players, peccato che ogni anno queste trappole aumentino di prezzo senza scrupoli. Sono come gli iPhone, ogni anno 100 monete in più :D

PS: Bell'articolo, complimenti Paolo!

Phopho
14-11-2022, 17:07
A quando i modelli inferiori, 7800 e 7700?

si parla di Q2 2023... :(

ningen
14-11-2022, 17:26
Se i risultati nei test raster in Cyberpunk sono questi gli fps ottenuti dalla 7900XTX sono molto vicini a quelli della 4090, sebbene rimangano sotto, ma stiamo parlando di una scheda che sulla carta sarà prezzata molto meno rispetto alla 4090, sebbene sempre oltre la soglia dei 1000 euro.
In raytracing sembra andare circa la metà rispetto ad una 4090 (anche con FSR vs DLSS), sempre considerando i test mostrati in Cyberpunk, e li AMD dovrebbe migliorare in futuro.
Non male, aspetto le recensioni sia di questa che della 4080 che potrebbe rivelarsi la più clamorosa zappa sui piedi nella storia di Nvidia, forse anche peggio delle geforce FX/Fermi.

Max Power
14-11-2022, 17:52
Ottimo

ciolla2005
14-11-2022, 17:53
Ormai 1000€ sono pochi per una VGA

Marckus87
14-11-2022, 19:29
Vabbeh.
Per tirare qualsiasi tipo di conclusione sempre attendere i bench VERI.. ai quali affiancare consumi e soprattutto prezzi.

Perchè se cammina come una 4080 mi aspetto che costi come una 4080.
da questi prime slide in raster camminano PIÙ e costano MENO della 4080

matrix83
14-11-2022, 19:51
da questi prime slide in raster camminano PIÙ e costano MENO della 4080
Non credo proprio, con cambio euro/dollaro e IVA costeranno quanto una 4080, o al massimo 100€ in meno. Ma a quel punto conviene prendersi una serie 4000, almeno hai anche rtx.

Marckus87
14-11-2022, 21:06
Non credo proprio, con cambio euro/dollaro e IVA costeranno quanto una 4080, o al massimo 100€ in meno. Ma a quel punto conviene prendersi una serie 4000, almeno hai anche rtx.
ancora peggio in quel caso se la XTX costasse 100 in meno della 4080, la vga nvidia converrebbe anche meno! personalmente se permetti preferisco avere il 20% di fps in più in raster sul 100% dei titoli che avere 20% in più di rt solo nei titoli che lo hanno, che rimangono 2 in croce di quelli che escono, senza contare che la maggior parte del rt è a malapena abbozzato.

demon77
14-11-2022, 21:30
ancora peggio in quel caso se la XTX costasse 100 in meno della 4080, la vga nvidia converrebbe anche meno! personalmente se permetti preferisco avere il 20% di fps in più in raster sul 100% dei titoli che avere 20% in più di rt solo nei titoli che lo hanno, che rimangono 2 in croce di quelli che escono, senza contare che la maggior parte del rt è a malapena abbozzato.

Prima di fare considerazioni bisogna avere davanti i test.
Poi è scelta personale a seconda delle esigenze.

Personalmente non ho molto interesse per il ray tracing ma di certo viene supportato in tutti i nuovi titoli e senza dubbio sarà una cosa fissa per il futuro.

Final50
14-11-2022, 22:34
Eccoli i fan verdi, prima una scheda che costa 200 dollari in meno magicamente con conversione e iva (che è in percentuale quindi già i 200 euro in più di base significano 50 euro in più sul prezzo finale) costerà AL MASSIMO 100 euro in meno... poi diventa una scelta personale a seconda delle esigenze, non gli interessa il ray tracing ma dato che sarà una cosa "fissa per il futuro" per loro ha senso spendere 200 euro in più nonostante in raster andranno di meno. Dai basta fare damage control... e per inciso, prima di essere accusato di essere un fan amd, ho solo un portatile con una vga nvidia e non ho intenzione di comprare nulla ne di farmi un pc quindi stica di ste schede.

silvanotrevi
14-11-2022, 23:15
Secondo me a questo giro Amd ha fatto le cose meglio di Nvidia:

1. Lato prezzi. Più bassi di Nvidia tenendo conto delle prestazioni

2. Lato consumi. Molto più efficienti delle schede Lovelace

3. Lato memoria video. Persino la lower end Amd avrà 20GB di Vram, aspetto da non sottovalutare se si gioca in 4k tutto su Ultra visto che di recente molti giochi richiedono già 16GB per giocare a dettagli massimi in 4k (e mi riferisco ad esempio a Far Cry 6, Steelrising, Watch Dogs Legion, The First Descendant e vedremo a breve come si comporterà anche The Witcher 3 next gen version il 14 dicembre). Nvidia è sempre stata tirchia lato Vram e alla fine le conseguenze si vedono se si tiene sempre la stessa scheda nel case per più di 2-3 anni

4. Lato connettore, decidendo di non implementare il nuovo difettato sistema Nvidia adoperato per la 4090 e 4080 ma mantenendo quello vecchio con tutte le sicurezze ed evitando a noi gamers il rischio di mandare letteralmente in fumo schede video da oltre 1000 euro

5. Lato refresh rate. La scelta di implementare il supporto al Displayport 2.1 è una figata, e giocare in 4k a 480hz è roba da sballo

E per quanto riguarda le altre tecnologie, Amd non sarà da meno a Nvidia visto che ci sarà un ray tracing di nuova generazione su queste nuove Radeon e ci sarà il nuovo FSR 3 che avrà la stessa funziona del Dlss 3 di Nvidia e cioè generare nuovi frames. Idem per quanto riguarda codifica e decodifica dello standard AV1 in 8k a 60fps. Insomma schede con le palle e prezzate molto meglio delle Lovelace. Se tanto mi da tanto, dal 14 dicembre con l'uscita di queste nuove Radeon, Nvidia sarà costretta a rivedere al ribasso il prezzo delle rtx 4080: non avrà più senso venderle a 1500 eur (che poi sono 2000 eur per chi le compra nella realtà) ma dovrà togliere un paio di centinaia di eur per restare competitiva. Unico tasto dolente di Amd saranno i drivers come sempre e lì c'è poco da fare, è un macello di bugs e altri problemi. Su questo Nvidia è ancora la migliore.

P.S. Per la redazione di hwupgrade: ce la fate a far uscire la recensione della rtx 4080 domani pomeriggio, cioè martedì 15 novembre? A questo punto sono curiosissimo

demon77
14-11-2022, 23:32
Eccoli i fan verdi, prima una scheda che costa 200 dollari in meno magicamente con conversione e iva (che è in percentuale quindi già i 200 euro in più di base significano 50 euro in più sul prezzo finale) costerà AL MASSIMO 100 euro in meno... poi diventa una scelta personale a seconda delle esigenze, non gli interessa il ray tracing ma dato che sarà una cosa "fissa per il futuro" per loro ha senso spendere 200 euro in più nonostante in raster andranno di meno. Dai basta fare damage control... e per inciso, prima di essere accusato di essere un fan amd, ho solo un portatile con una vga nvidia e non ho intenzione di comprare nulla ne di farmi un pc quindi stica di ste schede.

Ma fan verdi de che?
Ci sono i test? NO.
Stiamo fantasticando su slide fornite da AMD.

Quando ci saranno i test ci sarà un quadro chiaro delle prestazioni con e senza ray tracing. E quando ci saranno pure i prezzi sul mercato si potrà valutare.
E SI è una scelta personale in base alle esigenze visto che c'è chi è interessato al ray tracing e chi no così come è interessato al 4k e chi no.

mackillers
15-11-2022, 06:49
Vabbeh.
Per tirare qualsiasi tipo di conclusione sempre attendere i bench VERI.. ai quali affiancare consumi e soprattutto prezzi.

Perchè se cammina come una 4080 mi aspetto che costi come una 4080.

in grandi linee si, ma non è detto. a parità di prestazioni e costi moltissimi sceglierebbero Nvidia per una maggiore forza commerciale ed una superiore e piu radicata presenza delle sue tecnologie software nel mercato.

è quindi probabile che AMD prezzi le sue schede ad una cifra piu bassa rispetto a quella proposta da nvidia per le schede dirette concorrenti.

mackillers
15-11-2022, 06:57
Prima di fare considerazioni bisogna avere davanti i test.
Poi è scelta personale a seconda delle esigenze.

Personalmente non ho molto interesse per il ray tracing ma di certo viene supportato in tutti i nuovi titoli e senza dubbio sarà una cosa fissa per il futuro.

sono d'accordo con te, nonostante adesso abbia un sistema tutto AMD ed una certa simpatia per questo marchio non si può nascondere che il raytracing sia una features chiave per il futuro.

anche se molti che lo decantano come fondamentale già adesso molto spesso non sanno dire guardando un gioco se sia attivo o meno.
i casi in cui il suo uso è evidente sono quelli in cui gli ambienti sono volutamente pieni di specchi e pozzanghere che riflettono in maniera innaturalmente nitida le luci.

poi ovvio un suo uso ad amplio spettro rende la scena indubbiamente piu realistica, e le ultime demo di nvidia ne sono un esempio plastico, ma quanti sono i giochi che raggiungono quel livello?

per adesso nessuno, e se fra 5 o 6 anni ci arriveremo per allora avremo di nuovo cambiato VGA.
insomma bene che anche AMD si svegli e recuperi in questo ambito, ma non fasciamoci la testa e giudichiamo il raytracing per quello che è al momento, perché per un suo largo impiego dovremmo attendere ancora ( ben intenso che tutto il lavoro che nvidia sta facendo in merito farà da base per quello sviluppo e permette alle case di sviluppo di iniziare a lavorare con queste tecnologie).

mackillers
15-11-2022, 07:02
Secondo me a questo giro Amd ha fatto le cose meglio di Nvidia:

1. Lato prezzi. Più bassi di Nvidia tenendo conto delle prestazioni

2. Lato consumi. Molto più efficienti delle schede Lovelace

3. Lato memoria video. Persino la lower end Amd avrà 20GB di Vram, aspetto da non sottovalutare se si gioca in 4k tutto su Ultra visto che di recente molti giochi richiedono già 16GB per giocare a dettagli massimi in 4k (e mi riferisco ad esempio a Far Cry 6, Steelrising, Watch Dogs Legion, The First Descendant e vedremo a breve come si comporterà anche The Witcher 3 next gen version il 14 dicembre). Nvidia è sempre stata tirchia lato Vram e alla fine le conseguenze si vedono se si tiene sempre la stessa scheda nel case per più di 2-3 anni

4. Lato connettore, decidendo di non implementare il nuovo difettato sistema Nvidia adoperato per la 4090 e 4080 ma mantenendo quello vecchio con tutte le sicurezze ed evitando a noi gamers il rischio di mandare letteralmente in fumo schede video da oltre 1000 euro

5. Lato refresh rate. La scelta di implementare il supporto al Displayport 2.1 è una figata, e giocare in 4k a 480hz è roba da sballo

E per quanto riguarda le altre tecnologie, Amd non sarà da meno a Nvidia visto che ci sarà un ray tracing di nuova generazione su queste nuove Radeon e ci sarà il nuovo FSR 3 che avrà la stessa funziona del Dlss 3 di Nvidia e cioè generare nuovi frames. Idem per quanto riguarda codifica e decodifica dello standard AV1 in 8k a 60fps. Insomma schede con le palle e prezzate molto meglio delle Lovelace. Se tanto mi da tanto, dal 14 dicembre con l'uscita di queste nuove Radeon, Nvidia sarà costretta a rivedere al ribasso il prezzo delle rtx 4080: non avrà più senso venderle a 1500 eur (che poi sono 2000 eur per chi le compra nella realtà) ma dovrà togliere un paio di centinaia di eur per restare competitiva. Unico tasto dolente di Amd saranno i drivers come sempre e lì c'è poco da fare, è un macello di bugs e altri problemi. Su questo Nvidia è ancora la migliore.

P.S. Per la redazione di hwupgrade: ce la fate a far uscire la recensione della rtx 4080 domani pomeriggio, cioè martedì 15 novembre? A questo punto sono curiosissimo


Ciao,

in queto caso devo difendere almeno in parte Nvidia.
il nuovo connettore non è stato progettato da nvidia ma è uno standard che prima o poi implementerà anche AMD. certo avere gli attuali cavi semplifica la vita adesso che gli alimentatori non sono ancora compatibili in larga maggioranza.

le VGA amd probabilmente saranno piu economiche e consumeranno anche di meno, ma ofriranno anche di meno, Nvidia integra molti piu circuiti ed una memoria video piu veloce.

16GB di vRam bastano ed avanzano in 4K, non fatevi ingannare dalla memoria video allocata, quella che conta è quella veramente utilizzata dalla scheda che generalmente è molta di meno.

allo stato attuale 16GB vi Vram non limiterebbero neppure la 4090 con i giochi dei prossimi anni.

magari il limite potrà essere la bandwith di tale sottosistema ram, magari prima o poi si ritornerà ad utilizzare bus da 512bit come le vecchie ATI di 12 anni fa.

giocare a 480hz in 4k non è possibile con nessuna scheda quindi per adesso tale limite si dimostra tale solo in giochi graficamente vecchissimi o leggerissimi. magari però non dover utilizzare la compressione della qualità colore per fare i 144Hz in 4k potrebbe dare un leggero vantaggio in qualità dell'immagine, ma dubito sia una differenza distinguibile ad occhio nudo. comunque bene che gli standard nuovi ci siano, male non fa ovviamente.

mackillers
15-11-2022, 09:26
Unico tasto dolente di Amd saranno i drivers come sempre e lì c'è poco da fare, è un macello di bugs e altri problemi. Su questo Nvidia è ancora la migliore.

P.S. Per la redazione di hwupgrade: ce la fate a far uscire la recensione della rtx 4080 domani pomeriggio, cioè martedì 15 novembre? A questo punto sono curiosissimo

p.s. su questo punto invece devo invece difender AMD, personalmente ho da 3 anni quasi una 5700xt e sul portatile una 2070 e personalmente ho riscontrato 2 bug sulla nvidia e nessuno sulla 5700xt nonostante all'inizio ci fossero dei difetti riconosciuti.

oltretutto preferisco come interfaccia grafica quella di AMD ed ho notato molte aggiunte ed ottimizzazioni in questi anni. onestamente non posso lamentarmi.

p.s. ho comprato la AMD dopo 6 mesi dall'uscita e questo avrà sicuramente aiutato molto.

Gyammy85
15-11-2022, 09:54
Ciao,

in queto caso devo difendere almeno in parte Nvidia.
il nuovo connettore non è stato progettato da nvidia ma è uno standard che prima o poi implementerà anche AMD. certo avere gli attuali cavi semplifica la vita adesso che gli alimentatori non sono ancora compatibili in larga maggioranza.

le VGA amd probabilmente saranno piu economiche e consumeranno anche di meno, ma ofriranno anche di meno, Nvidia integra molti piu circuiti ed una memoria video piu veloce.

16GB di vRam bastano ed avanzano in 4K, non fatevi ingannare dalla memoria video allocata, quella che conta è quella veramente utilizzata dalla scheda che generalmente è molta di meno.

allo stato attuale 16GB vi Vram non limiterebbero neppure la 4090 con i giochi dei prossimi anni.

magari il limite potrà essere la bandwith di tale sottosistema ram, magari prima o poi si ritornerà ad utilizzare bus da 512bit come le vecchie ATI di 12 anni fa.

giocare a 480hz in 4k non è possibile con nessuna scheda quindi per adesso tale limite si dimostra tale solo in giochi graficamente vecchissimi o leggerissimi. magari però non dover utilizzare la compressione della qualità colore per fare i 144Hz in 4k potrebbe dare un leggero vantaggio in qualità dell'immagine, ma dubito sia una differenza distinguibile ad occhio nudo. comunque bene che gli standard nuovi ci siano, male non fa ovviamente.

Quando le cose vanno male ovvio che nvidia non c'entra mai, per cui il connettore glielo hanno somministrato a forza quelli dello standard, od il resizable bar che è il più grande flop della storia
La vram poi è sempre divertente, perché sembra quasi la si possa aggiungere o cambiare, tipo la 3080ti da 12 giga, la più grossa presa in giro (ma anche la 3080 da 10 non scherza)
E poi le uscite video, che ovviamente ora tutti snobbano perché che ci fai con il dp 2.1 e l'8k 60 di decodifica, ma sono le stesse persone che da turing rompono tutti i giorni con "il grande ecosistema per creatori di contenuti" di nvidia

StylezZz`
15-11-2022, 10:41
16GB di vRam bastano ed avanzano in 4K, non fatevi ingannare dalla memoria video allocata, quella che conta è quella veramente utilizzata dalla scheda che generalmente è molta di meno

Anche 10GB/12GB eh...ma poi mi fa sorridere il ragionamento (sbagliato) che fanno in molti quando si tratta di prendere una scheda con più VRAM per una questione ''future proof'', senza sapere che la potenza della gpu sarà comunque inadeguata a gestire con un framerate decente (sacrificando le impostazioni grafiche) i nuovi giochi in futuro.

od il resizable bar che è il più grande flop della storia

SAM e Resizable Bar sono la stessa cosa, cambia il nome, ma il principio di funzionamento è lo stesso.

Gyammy85
15-11-2022, 10:50
SAM e Resizable Bar sono la stessa cosa, cambia il nome, ma il principio di funzionamento è lo stesso.

Il sam funziona e il rebar no, piccolo particolare
Se ne guardano bene dal dare nomi quando le cose non vanno bene, a parti invertite "nvidia ia power access memory"

StylezZz`
15-11-2022, 10:53
Il sam funziona e il rebar no, piccolo particolare
Se ne guardano bene dal dare nomi quando le cose non vanno bene, a parti invertite "nvidia ia power access memory"

Se in alcuni giochi non funziona è perchè nvidia non li ha aggiunti nella lista dei supportati, ma si può fare manualmente con nvidia profile inspector, e il boost prestazionale è paragonabile a quello offerto dalle radeon.

L'unica differenza è questa, AMD offre un supporto migliore, ma per il resto sono la stessa cosa.

futu|2e
15-11-2022, 11:34
Adios pc gaming :nonsifa:

ninja750
15-11-2022, 11:47
Secondo me a questo giro Amd ha fatto le cose meglio di Nvidia:

1. Lato prezzi
2. Lato consum
3. Lato memoria video
4. Lato connettore
5. Lato refresh rate

mancherebbe giusto 6. lato prestazioni :asd:

perchè fino ad agosto nel thread aspettando si parlava di SICURI 2x secchi su 6900XT perchè c'erano il doppio di SP e figurati i miglioramenti interni e vuoi mettere le uber frequenze del nuovo PP? :stordita:

Gyammy85
15-11-2022, 11:55
mancherebbe giusto 6. lato prestazioni :asd:

perchè fino ad agosto nel thread aspettando si parlava di SICURI 2x secchi su 6900XT perchè c'erano il doppio di SP e figurati i miglioramenti interni e vuoi mettere le uber frequenze del nuovo PP? :stordita:

Se ci fossero stati fisicamente 12k sp era diverso il discorso, ma farli entrare in 300 mm2 era impossibile a meno di non farla a 3 nm
Lavorando sulla capacità delle cu invece si è ottenuto quasi lo stesso risultato (ci sono 96 rt cores vs 80 e anche così fa 2x fps in dying light rtx)
Come le 5870 vs le grosse fermi alla fine

ningen
15-11-2022, 12:41
Anche 10GB/12GB eh...ma poi mi fa sorridere il ragionamento (sbagliato) che fanno in molti quando si tratta di prendere una scheda con più VRAM per una questione ''future proof'', senza sapere che la potenza della gpu sarà comunque inadeguata a gestire con un framerate decente (sacrificando le impostazioni grafiche) i nuovi giochi in futuro.

Lasciamo perdere che questa è una battaglia persa.
Negli anni di minchiate ne ho sentite a valanga su questa questione della VRAM ed è il motivo per cui, per fare un esempio, nemmeno in futuro quei 4 gb in più che ha la 3060 faranno la differenza rispetto ai "soli" 8 gb della 3060 ti, palese dimostrazione dove questa minchiata fallisce miseramente.

dav1deser
15-11-2022, 14:07
Lasciamo perdere che questa è una battaglia persa.
Negli anni di minchiate ne ho sentite a valanga su questa questione della VRAM ed è il motivo per cui, per fare un esempio, nemmeno in futuro quei 4 gb in più che ha la 3060 faranno la differenza rispetto ai "soli" 8 gb della 3060 ti, palese dimostrazione dove questa minchiata fallisce miseramente.

Giusto per fare un esempio sul discorso Vram:
https://www.techspot.com/review/2291-geforce-gtx-1060-3gb-vs-6gb/

Dove è evidente che negli anni, avere meno Vram ha portato ad una perdita prestazionale superiore.
La Vram comunque è utile particolarmente per le Texture, avere più Vram ti permette di usare texture a maggiore definizione senza avere stuttering o altri cali di framerate, e nel frattempo se la Vram è sufficiente l'impatto prestazionale che si ha nell'utilizzare texture a risoluzione maggiore è estremamente basso.
Quindi avere più Vram può (in teoria) consentire in futuro di tenere texture in alta risoluzione pur dovendo ridurre altri dettagli grafici a causa della scarsa (in prospettiva) potenza di calcolo. Che è sempre meglio che dover ridurre tutti i dettagli grafici.

mackillers
15-11-2022, 14:23
Quando le cose vanno male ovvio che nvidia non c'entra mai, per cui il connettore glielo hanno somministrato a forza quelli dello standard, od il resizable bar che è il più grande flop della storia
La vram poi è sempre divertente, perché sembra quasi la si possa aggiungere o cambiare, tipo la 3080ti da 12 giga, la più grossa presa in giro (ma anche la 3080 da 10 non scherza)
E poi le uscite video, che ovviamente ora tutti snobbano perché che ci fai con il dp 2.1 e l'8k 60 di decodifica, ma sono le stesse persone che da turing rompono tutti i giorni con "il grande ecosistema per creatori di contenuti" di nvidia

Perdonami ma onestamente non concordo.

Nvidia ha la colpa di aver creato una GPU molto grande ed esosa in consumi, conseguentemente ha scelto di adottare l'ultimo standard di collegamento. che per inciso suppongo AMD implementerà con la prossima gen.
se questa tipologia di cavo in taluni sparuti casi può creare dei problemi questa non è a mio giudizio una sua responsabilità diretta.
e per adesso mi pare che i casi di problemi con il cavo di alimentazione siano pochissimi rispetto al numero di unità commercializzate.

per quanto riguarda invece il connettore posso darti ragione in parte, nel senso che non vedo un uso pratico del nuovo standard se non in particolarissimi casi, ma chiaramente è sempre preferibile avere a disposizione lo standard piu aggiornato.

difficilmente ci si potrà trovare a gestire refresh così alti a risoluzioni così alte, neppur esistono ancora monitor compatibili ed anche la 4090 non riesce sui giochi attuali a raggiungere tali FPS quindi il limite è piu teorico che reale.

piuttosto se avessi una 4090 ed un monitor 4k da 144hz mi dispiacere dover attivare la compressione colore e perdere la profondità colore a 12bit, però anche i recensori piu esperti sostengono che sia una limitazione quasi impossibile da distinguere ad occhio nudo.


mentre per il resize bar onestamente non ti seguo, quale sarebbe il problema?

AMD ha sfruttato il fatto di produrre sia GPU che CPU e motherboard per lanciare una sua interpretazione del Resizable bar particolarmente ottimizzata e quindi con una piattaforma tutta AMD come la mia si dovrebbe in teoria avere qualche punto percetuale di prestazioni in piu rispetto al resizable bar Attivo con cpu intel + gpu AMD o Nvdia oppure CPU AMD + Nvidia.
ma questo non lo vedo come un difetto di Nvidia ma un piccolo vantaggio di AMD che può ottimizzare hardware e software dell'intera macchina invece che della sola scheda video.


per quanto riguarda la memoria video anche qui ti do parzialmente ragione, AMD inserisce una quantità di ram maggiore e forse in futuro potranno esistere dei giochi che con una 3080 10Gb siano piu limitati dalla quantita della Vram che della potenza effettiva della GPU.
ma al momento non mi risulta esistano, ricorda che la quantita di ram allocata da un applicazione non è mai completamente usata.
chiaro che se a parità di prezzo mi offri piu ram è sempre meglio ma se poi alla fine della fiera una 3080 mi garantisce prestazioni maggiori di una 6800xt sarà quella da preferire, anche se ha meno RAM.


detto questo la nuova Gen AMD sembra correggere molte delle debolezze della precedente gen, quindi la guardo con molto interesse per sostituire la mia 5700xt, speriamo che il possedere un 5800x ed una conseguente piattaforma AM4 non costituisca un limite per sfruttarla a dovere.

mackillers
15-11-2022, 15:07
Giusto per fare un esempio sul discorso Vram:
https://www.techspot.com/review/2291-geforce-gtx-1060-3gb-vs-6gb/

Dove è evidente che negli anni, avere meno Vram ha portato ad una perdita prestazionale superiore.
La Vram comunque è utile particolarmente per le Texture, avere più Vram ti permette di usare texture a maggiore definizione senza avere stuttering o altri cali di framerate, e nel frattempo se la Vram è sufficiente l'impatto prestazionale che si ha nell'utilizzare texture a risoluzione maggiore è estremamente basso.
Quindi avere più Vram può (in teoria) consentire in futuro di tenere texture in alta risoluzione pur dovendo ridurre altri dettagli grafici a causa della scarsa (in prospettiva) potenza di calcolo. Che è sempre meglio che dover ridurre tutti i dettagli grafici.


in quel caso però si tratta di due schede video di fascia bassa medio/bassa in cui era chiaro anche ad Nvidia che tale scelta fosse un compromesso, ecco perché è stata creata la variante 6GB.

di fatti sono schede che con i giochi moderni comunque garantiscono basse prestazioni, chiaro con la 6GB magari riesci ancora a vivacchiare con la 3 no.

ma avrebbe piu senso cambiare GPU.

nel caso di una 3080 il problema secondo me non si pone, è una scheda Highend fra 5 o 7 anni quando saranno impattanti i soli 10gb in 2K (la sua res di riferimento, non è una scheda pensata per il 4k, già adesso fatica un pò a tale risoluzione) allora sarà decisamente surclassata a livello di potenza di elaborazione ed il suo acquirente l'avrà sostituita da tempo.

poi è ovvio che se dovessi scegliere adesso fra una 3080 12GB ed una 6800XT se la seconda mi costa 100€ meno i 4GB in piu non li disprezzo, ma realisticamente parlando difficilmente finiranno per fare la differenza.

anche perché oramai con le texture si è arrivati ad alte definizioni, i grossi miglioramenti in futuro saranno lato densità poligonale ed illuminazione ( vedi raytracing ed UE5) e li servirà potenza computazionale.

StylezZz`
15-11-2022, 15:10
Comunque la 1060 3GB e 6GB non differiscono solo nel quantitativo di VRAM, ma hanno anche due chip diversi.

Andrebbe fatto lo stesso paragone tra la 1060 6GB e la RX 580 8GB.

dav1deser
15-11-2022, 16:19
Comunque la 1060 3GB e 6GB non differiscono solo nel quantitativo di VRAM, ma hanno anche due chip diversi.

Andrebbe fatto lo stesso paragone tra la 1060 6GB e la RX 580 8GB.

Si ma nell'articolo fa vedere che il distacco prestazionale è cresciuto rispetto a quando le schede sono uscite, ma i chip sempre quelli sono, quindi se la ram non fosse stata rilevante, la differenza prestazionale sarebbe rimasta uguale.

@mackillers
Si era per fare un esempio, e ai tempi c'era chi comunque consigliava la 3GB visto che costava meno. Così come gli anni prima c'era chi si lamentava delle Fury con solo 4GB (ed infatti non mi pare siano invecchiate benissimo).
Cioè secondo me se si pensa di tenere la scheda video per max 3 anni, non serve stare a guardare molto la quantità di Vram, se la si vuole tenere di più allora non è qualcosa da sottovalutare.

ningen
15-11-2022, 16:21
Giusto per fare un esempio sul discorso Vram:
https://www.techspot.com/review/2291-geforce-gtx-1060-3gb-vs-6gb/

Dove è evidente che negli anni, avere meno Vram ha portato ad una perdita prestazionale superiore.
La Vram comunque è utile particolarmente per le Texture, avere più Vram ti permette di usare texture a maggiore definizione senza avere stuttering o altri cali di framerate, e nel frattempo se la Vram è sufficiente l'impatto prestazionale che si ha nell'utilizzare texture a risoluzione maggiore è estremamente basso.
Quindi avere più Vram può (in teoria) consentire in futuro di tenere texture in alta risoluzione pur dovendo ridurre altri dettagli grafici a causa della scarsa (in prospettiva) potenza di calcolo. Che è sempre meglio che dover ridurre tutti i dettagli grafici.

La 1060 da 3 gb era più lenta della 1060 da 6 gb già all'uscita e non per via della vram.
Quando quei 3 gb di ram si son rivelati un limite anche la 1060 da 6 gb ha iniziato ad arrancare, sebbene abbia poi risultati milgiori, ma parliamo di schede che a malapena tenevano i 60 fps a 1080p con AC:Unity, ed infatti in AC: Valhalla hanno entrambe performance deludenti in high e sicuramente non ottimali ed entrambe sono schede che andrebbero cambiate per un esperienza migliore.
In cosa sarebbe future-proof la 1060 da 6 gb? Oggi rimangono entrambe schede da 1080p con compromessi, anzi in certi giochi come Horizon la differenza rimane simile come era all'uscita e lo stesso dicasi per la varie RX 470, 480, 570, 580 con vari tagli di Vram.

dav1deser
15-11-2022, 16:25
La 1060 da 3 gb era più lenta della 1060 da 6 gb già all'uscita e non per via della vram.
Quando quei 3 gb di ram si son rivelati un limite anche la 1060 da 6 gb ha iniziato ad arrancare, sebbene abbia poi risultati milgiori, ma parliamo di schede che a malapena tenevano i 60 fps a 1080p con AC:Unity, ed infatti in AC: Valhalla hanno entrambe performance deludenti in high e sicuramente non ottimali ed entrambe sono schede che andrebbero cambiate per un esperienza migliore.
In cosa sarebbe future-proof la 1060 da 6 gb? Oggi rimangono entrambe schede da 1080p con compromessi, anzi in certi giochi come Horizon la differenza rimane simile come era all'uscita e lo stesso dicasi per la varie RX 470, 480, 570, 580 con vari tagli di Vram.

Da una differenza prestazionale del 7% (a favore della 6GB) si è passati ad oltre il 20% (sempre ovviamente a favore della 6GB), direi che è ovvio che la 6GB si è dimostrata più future proof (nella media dei giochi testati dalla recensione che ho linkato). Per quanto mi riguarda i numeri parlano da soli.

Alfhw
15-11-2022, 17:39
Non credo proprio, con cambio euro/dollaro e IVA costeranno quanto una 4080, o al massimo 100€ in meno. Ma a quel punto conviene prendersi una serie 4000, almeno hai anche rtx.

Prezzi in USA per le FE/Reference:
4080 1199 dollari
7900 XTX 999 dollari

Prezzi Italia:
4080 1479 euro
7900 XTX 1232 euro stimato facendo una banale proporzione
Differenza 247 euro

Però secondo te le 7900 XTX "costeranno quanto una 4080, o al massimo 100€ in meno." :doh: La "matematica" dei fanboy è impressionante.
Senza contare che le 7900 XTX probabilmente andranno più veloce delle 4080 in raster.

StylezZz`
15-11-2022, 18:33
Da una differenza prestazionale del 7% (a favore della 6GB) si è passati ad oltre il 20% (sempre ovviamente a favore della 6GB), direi che è ovvio che la 6GB si è dimostrata più future proof (nella media dei giochi testati dalla recensione che ho linkato). Per quanto mi riguarda i numeri parlano da soli.

Scusami, ma definire una scheda più future proof sulla base di 4 giochi su 17 dove effettivamente i 6GB hanno aiutato (1080p su Valhalla, Re Village, Doom Eternal, Tomb Raider, le altre risoluzioni possiamo anche scartarle) mi sembra esagerato, posso capire se fosse stato così in quasi tutti i titoli recenti, allora si, ma dubito che i possessori della versione 3GB si saranno pentiti dell'acquisto fatto più di 6 anni fa, considerando anche la differenza di prezzo che ballava tra le due versioni :stordita:

Oltre la 1060 3GB, quale altra scheda recente rimane come esempio di paragone? Siamo quasi alla fine del 2022, e i 6GB delle varie 1060/1660/2060 vanno ancora benissimo a 1080p, nonostante le critiche ricevute all'epoca dove si davano per spacciate rispetto le varie Polaris con 8GB :asd:

dav1deser
15-11-2022, 18:53
Scusami, ma definire una scheda più future proof sulla base di 4 giochi su 17 dove effettivamente i 6GB hanno aiutato (1080p su Valhalla, Re Village, Doom Eternal, Tomb Raider, le altre risoluzioni possiamo anche scartarle) mi sembra esagerato, posso capire se fosse stato così in quasi tutti i titoli recenti, allora si, ma dubito che i possessori della versione 3GB si saranno pentiti dell'acquisto fatto più di 6 anni fa, considerando anche la differenza di prezzo che ballava tra le due versioni :stordita:

Oltre la 1060 3GB, quale altra scheda recente rimane come esempio di paragone? Siamo quasi alla fine del 2022, e i 6GB delle varie 1060/1660/2060 vanno ancora benissimo a 1080p, nonostante le critiche ricevute all'epoca dove si davano per spacciate rispetto le varie Polaris con 8GB :asd:

Scusa se è poco che nel 25% dei giochi testati avere meno Vram ha causato evidenti problemi, e nella maggior parte degli altri casi, stando a 1080 dettagli medi, le differenze prestazionali andavano comunque ben oltre quelle teoriche dei pochi core in meno della 3gb.

Esempi recenti non ce ne sono molti, però ho trovato questa:
https://www.techspot.com/review/1961-radeon-rx-5500-4gb-vs-8gb/

La differenza di prestazioni nell'1% Low è in molti casi vicino o superiore al 10%.

Ripeto comunque, se si vuole tenere la scheda video per poco tempo, diciamo 3 anni, la Vram non è un problema. Se la si vuole tenere a lungo è un fattore da considerare.

ningen
15-11-2022, 19:08
Da una differenza prestazionale del 7% (a favore della 6GB) si è passati ad oltre il 20% (sempre ovviamente a favore della 6GB), direi che è ovvio che la 6GB si è dimostrata più future proof (nella media dei giochi testati dalla recensione che ho linkato). Per quanto mi riguarda i numeri parlano da soli.

I numeri dicono che a parte rari casi la differenza prestazionale si è tenuta tale e quando la 1060 da 3 gb non ce la fa, anche la 1060 da 6 gb arranca, sebbene si comporti mediamente meglio a 1080p.
In entrambi i casi per avere un frame rate accettabile in molti titoli moderni devi scendere a patti con dei compromessi anche a 1080p (a meno che per te sia accettabile giocare a 48 fps in AC:Valhalla con settaggi high). La 1060 da 3 gb non era future proof tanto quanto la 1060 da 6 gb. In ogni caso non sono schede video da usare a 1440p, quindi i test a quelle risoluzioni lasciano il tempo che trovano.

Scusami, ma definire una scheda più future proof sulla base di 4 giochi su 17 dove effettivamente i 6GB hanno aiutato (1080p su Valhalla, Re Village, Doom Eternal, Tomb Raider, le altre risoluzioni possiamo anche scartarle) mi sembra esagerato, posso capire se fosse stato così in quasi tutti i titoli recenti, allora si, ma dubito che i possessori della versione 3GB si saranno pentiti dell'acquisto fatto più di 6 anni fa, considerando anche la differenza di prezzo che ballava tra le due versioni :stordita:

Oltre la 1060 3GB, quale altra scheda recente rimane come esempio di paragone? Siamo quasi alla fine del 2022, e i 6GB delle varie 1060/1660/2060 vanno ancora benissimo a 1080p, nonostante le critiche ricevute all'epoca dove si davano per spacciate rispetto le varie Polaris con 8GB :asd:

Infatti il limite di quelle schede non è mai stata la vram di "soli" 6 gb, ma l'effettiva potenza della gpu, anche perchè probabilmente le differenze con le RX 470/480/570/580/590 credo che siano rimaste praticamente identiche, nonostante i 2 gb di vram in più di certi modelli.

dav1deser
15-11-2022, 19:27
I numeri dicono che a parte rari casi la differenza prestazionale si è tenuta tale e quando la 1060 da 3 gb non ce la fa, anche la 1060 da 6 gb arranca, sebbene si comporti mediamente meglio a 1080p.
In entrambi i casi per avere un frame rate accettabile in molti titoli moderni devi scendere a patti con dei compromessi anche a 1080p (a meno che per te sia accettabile giocare a 48 fps in AC:Valhalla con settaggi high). La 1060 da 3 gb non era future proof tanto quanto la 1060 da 6 gb. In ogni caso non sono schede video da usare a 1440p, quindi i test a quelle risoluzioni lasciano il tempo che trovano.



Infatti il limite di quelle schede non è mai stata la vram di "soli" 6 gb, ma l'effettiva potenza della gpu, anche perchè probabilmente le differenze con le RX 470/480/570/580/590 credo che siano rimaste praticamente identiche, nonostante i 2 gb di vram in più di certi modelli.

Il 25% dei giochi testati per me non sono "rari casi".
Si trovano recensioni moderne di 1060 vs 580. Dove la 580 ha guadagnato terreno rispetto ad alcuni anni fa. Però non è facile dire se sia questione di Vram, ottimizzazione driver, funzionalità della GPU meglio sfruttate (mi pare che la 580 avesse alcune funzionalità delle DX12 assenti sulle 1060), maggiore collaborazione di AMD con gli sviluppatori, o altro.

StylezZz`
15-11-2022, 21:24
Scusa se è poco che nel 25% dei giochi testati avere meno Vram ha causato evidenti problemi, e nella maggior parte degli altri casi, stando a 1080 dettagli medi, le differenze prestazionali andavano comunque ben oltre quelle teoriche dei pochi core in meno della 3gb

Per una scheda del 2016 che ha fatto il suo tempo si, per me è poco se consideriamo anche il prezzo minore dell'epoca rispetto la versione da 6GB.

Esempi recenti non ce ne sono molti, però ho trovato questa:
https://www.techspot.com/review/1961-radeon-rx-5500-4gb-vs-8gb/

La differenza di prestazioni nell'1% Low è in molti casi vicino o superiore al 10%

Va be si, se per quello anche la 6500 XT 4GB è risikata, ma non ho ancora visto schede da 6GB avere problemi a 1080p.

Ripeto comunque, se si vuole tenere la scheda video per poco tempo, diciamo 3 anni, la Vram non è un problema. Se la si vuole tenere a lungo è un fattore da considerare

Mah, con le schede video (soprattutto in fascia media) quando si tratta di giocare non esiste il ''future proof'' (inteso come diversi anni), i primi 2/3 anni ci giochi tutto sparato a dettagli alti, poi se vuoi restare sui 60fps devi comunque scendere con i settaggi, perchè appunto la gpu non riesce più a tenere il passo, oltre al fatto che viene supportata meno in favore delle schede nuove...quindi scegliere una scheda solo per il quantitativo di vram maggiore con la convinzione che durerà di più, è semplicemente un illusione...poi se ci accontentiamo dei 30/40fps allora va be, ma a questo punto meglio una console!

Marckus87
16-11-2022, 07:09
Personalmente non ho molto interesse per il ray tracing ma di certo viene supportato in tutti i nuovi titoli e senza dubbio sarà una cosa fissa per il futuro.

in realtà non è così, il supporto al ray tracing è basso, 1 titolo su 30 in uscita e ci sto andando largo, anche i titoli che lo supportano saranno una 30ina in 5 anni che si parla di RT.

Prima di fare considerazioni bisogna avere davanti i test.
Poi è scelta personale a seconda delle esigenze.

questo è ovvio io parlo sempre per ipotesi basate da queste slide

BelzebV
16-11-2022, 12:35
Secondo me a questo giro Amd ha fatto le cose meglio di Nvidia:

1. Lato prezzi. Più bassi di Nvidia tenendo conto delle prestazioni

2. Lato consumi. Molto più efficienti delle schede Lovelace

3. Lato memoria video. Persino la lower end Amd avrà 20GB di Vram, aspetto da non sottovalutare se si gioca in 4k tutto su Ultra visto che di recente molti giochi richiedono già 16GB per giocare a dettagli massimi in 4k (e mi riferisco ad esempio a Far Cry 6, Steelrising, Watch Dogs Legion, The First Descendant e vedremo a breve come si comporterà anche The Witcher 3 next gen version il 14 dicembre). Nvidia è sempre stata tirchia lato Vram e alla fine le conseguenze si vedono se si tiene sempre la stessa scheda nel case per più di 2-3 anni

4. Lato connettore, decidendo di non implementare il nuovo difettato sistema Nvidia adoperato per la 4090 e 4080 ma mantenendo quello vecchio con tutte le sicurezze ed evitando a noi gamers il rischio di mandare letteralmente in fumo schede video da oltre 1000 euro

5. Lato refresh rate. La scelta di implementare il supporto al Displayport 2.1 è una figata, e giocare in 4k a 480hz è roba da sballo

E per quanto riguarda le altre tecnologie, Amd non sarà da meno a Nvidia visto che ci sarà un ray tracing di nuova generazione su queste nuove Radeon e ci sarà il nuovo FSR 3 che avrà la stessa funziona del Dlss 3 di Nvidia e cioè generare nuovi frames. Idem per quanto riguarda codifica e decodifica dello standard AV1 in 8k a 60fps. Insomma schede con le palle e prezzate molto meglio delle Lovelace. Se tanto mi da tanto, dal 14 dicembre con l'uscita di queste nuove Radeon, Nvidia sarà costretta a rivedere al ribasso il prezzo delle rtx 4080: non avrà più senso venderle a 1500 eur (che poi sono 2000 eur per chi le compra nella realtà) ma dovrà togliere un paio di centinaia di eur per restare competitiva. Unico tasto dolente di Amd saranno i drivers come sempre e lì c'è poco da fare, è un macello di bugs e altri problemi. Su questo Nvidia è ancora la migliore.

P.S. Per la redazione di hwupgrade: ce la fate a far uscire la recensione della rtx 4080 domani pomeriggio, cioè martedì 15 novembre? A questo punto sono curiosissimo
Ho da ridire sul fattore driver, tempo indietro al d1 presi la 6800xt, poi per fattori miei, decisi dipo 1 anno e 4 mesi di onorato servizio, una 3080 ( che ho attualmente) dico, non ho avuto UN SINGOLO BUG, anzi ricordo benissimo, che appena montai la 3080, facendo il primo test su 3dmark, i driver crashavano 1 volta si e l'altra pure, ma questo puo' dipendere da tanti fattori, io mi trovo MOLTO meglio con i driver amd, che reputo, più completi, sotto tanti punti di vista, belli da vedere, oggi quando apro i driver nvidia, mi sembra di avere ancora il mio primo pc in DOS... il che nel 2022 è un tantino squallido, non nego, che preferisco un po' amd, rispetto ad nvidia, ma io alla fine vado dove ho più performance, senza obbligatoriamente vendere un rene, l'RT tutt'oggi la reputo una cosa quasi inutile, percio' o lo attivo o no mi cambia poco, mentre avere più fps possibili mi cambia un po'. imho

Fos
16-11-2022, 17:09
Va be si, se per quello anche la 6500 XT 4GB è risikata, ma non ho ancora visto schede da 6GB avere problemi a 1080p.La risoluzione di rendering non è la prima cosa ad occupare la VRAM, ma seconda, se non la terza.

Prendi una 2060 liscia e vedi se quei 6GB non ti costringono ad abbassare almeno di una tacca la risoluzione delle texure.
Non di rado, se non strozza del tutto cala nettamente nei minimi.
Se non cala nettamente, comunque può creare più stuttering nella fase di ricarico.
L'allocazione non è inutile, se non fatta a razzo serve per portarsi avanti, se così si può dire.
Come può servire per migliorare i tempi dei caricamenti.

La qualità delle texture è una cosa che si nota, e come detto da dav1deser in pratica non pesa niente sulle prestazioni.
Con RDR-2 s'è visto bene quanto contasse avere gli 8GB per la RX-580. L'esempio con la 1060 non è proprio il più azzeccato...
Oltre in VRAM, la 580 ha ci guadagnato sul future prof a 360 gradi. RDR-2 è uscito più di 4 anni fa, e le 1060-580 molto spesso reggono ancora i reqisiti minimi.

Non ha senso dire che non ce la faranno a gestire il gioco per altro, quando si cerca il primo parametro determinante per la VRAM, che potrà continuare ad essere messo almeno una tacca sopra la scheda inferiore.

In Forza Horizon-5 la 2060 liscia reggerebbe pure i 1440p con dettagli sopra la media, non le texxture, però, che se le maxi possono superare gli 8GB. Non mi pare verosimile partire con lo stesso discorso con gli 8GB, visto che già potrebbero non bastare, e Nvidia ha schede con 8GB con una certa longevità generale, toccando il picco con la 3070Ti.

È a dir poco prevedibile che con quella scheda in futuro si dovrà lesinare, ma si dovrà farlo anche con la 3060Ti, e già ci sono casi presenti in cui si deve fare.

I numeri questo dicono, i casi non sono poi così eccezionali, e più si andrà avanti meno lo saranno.

Senza considerare che i casi è sempre meglio non averli, e che se si parla di inutilità i casi bastano e avanzano per mandarla in vacanza...

StylezZz`
16-11-2022, 22:04
La risoluzione di rendering non è la prima cosa ad occupare la VRAM, ma seconda, se non la terza.

Prendi una 2060 liscia e vedi se quei 6GB non ti costringono ad abbassare almeno di una tacca la risoluzione delle texure.
Non di rado, se non strozza del tutto cala nettamente nei minimi.
Se non cala nettamente, comunque può creare più stuttering nella fase di ricarico.
L'allocazione non è inutile, se non fatta a razzo serve per portarsi avanti, se così si può dire.
Come può servire per migliorare i tempi dei caricamenti.

La qualità delle texture è una cosa che si nota, e come detto da dav1deser in pratica non pesa niente sulle prestazioni.
Con RDR-2 s'è visto bene quanto contasse avere gli 8GB per la RX-580. L'esempio con la 1060 non è proprio il più azzeccato...
Oltre in VRAM, la 580 ha ci guadagnato sul future prof a 360 gradi. RDR-2 è uscito più di 4 anni fa, e le 1060-580 molto spesso reggono ancora i reqisiti minimi.

Non ha senso dire che non ce la faranno a gestire il gioco per altro, quando si cerca il primo parametro determinante per la VRAM, che potrà continuare ad essere messo almeno una tacca sopra la scheda inferiore.

In Forza Horizon-5 la 2060 liscia reggerebbe pure i 1440p con dettagli sopra la media, non le texxture, però, che se le maxi possono superare gli 8GB. Non mi pare verosimile partire con lo stesso discorso con gli 8GB, visto che già potrebbero non bastare, e Nvidia ha schede con 8GB con una certa longevità generale, toccando il picco con la 3070Ti.

È a dir poco prevedibile che con quella scheda in futuro si dovrà lesinare, ma si dovrà farlo anche con la 3060Ti, e già ci sono casi presenti in cui si deve fare.

I numeri questo dicono, i casi non sono poi così eccezionali, e più si andrà avanti meno lo saranno.

Senza considerare che i casi è sempre meglio non averli, e che se si parla di inutilità i casi bastano e avanzano per mandarla in vacanza...

Visto che hai tirato in ballo RDR2, ecco a te la 1060 6GB con texture sparate su ultra:

https://www.youtube.com/watch?v=De7QCUp6ePQ

https://www.youtube.com/watch?v=XcuwQeS9vjE

https://www.youtube.com/watch?v=pLXTCtMhgTo (GTX 1060 vs RX 580 vs GTX 1660 Super).

L'unico vero vantaggio della 580 è il supporto driver che negli ultimi anni gli ha giovato, sicuramente più della 1060...e sulla RTX 2060 mi limito solo a dire che su RDR2 ci giochi pure maxato a 1440p con il DLSS.

Alla fine di questa gen di console tireremo le somme, e vedremo se gli 8GB delle gpu attuali saranno stati limitanti, ma per come la vedo io sarà stata la solita inutile diatriba che ormai va avanti da anni...

Fos
17-11-2022, 15:37
Visto che hai tirato in ballo RDR2, ecco a te la 1060 6GB con texture sparate su ultra:

L'unico vero vantaggio della 580 è il supporto driver...

https://www.techspot.com/review/1990-geforce-1060-vs-radeon-580/

https://static.techspot.com/articles-info/1990/bench/RDR2-p.webp

Red Dead Redemption 2 requires at least 8GB of VRAM when using high quality settings and as a result, we see rather poor 1% low performance from the GTX 1060 due to its 6GB buffer.

So while the RX 580 was 18% faster when comparing average frame rate performance at 1080p, it was a whopping 77% faster when comparing the 1% low data, and more crucially, didn't suffer from frame stuttering.

Avevo parlato anche di minimi e di stuttering.

L'unico vero vantaggio... Perché, gli 8GB sono un vantaggio finto?

Stai continuando ad ignorare la questione del vantaggio a prescindere , che permette di impostare texture migliori senza peso aggiuntivo.

Scusa, eh, ma la fai qualche prova con una scheda da 6GB a 1080p, che a volte può arrivare a 1440p come fa un 2060 liscia, o guardi solo i test sommari?

Una 2060 liscia l'ho avuta nell'altro PC fino a poco tempo fa, quei 6GB erano il tallone di achille di quella scheda anche a 1080p, e a 1080p una GTX-1060 ancora fa partire in nuovo, in cui si potrà aumentare una tacca la qualità delle texture senza colpo ferire. Va meglio così?

Non serve più di tanto vedere il futuro, perché già 8GB in qualche caso non bastano, non bisogna essere un indovino per capire che più tempo passa e meno basteranno.

C'è qualcuno che può pensare che tra 2 anni la 3070 non sarà ancora più limitata? Garantisce lui?

Perché la storia dei GB in più che saranno limitati dalla potenza l'ho sentita spesso, poi quando non bastano sono eccezioni, poi se diventano qualcosa in più scala una tacca e non preoccuparti...

StylezZz`
17-11-2022, 21:57
Avevo parlato anche di minimi e di stuttering

Ok benissimo, nei minimi è evidente che la 1060 con impostazioni alte è in difficoltà, però è chiaro che con entrambe le schede se si vuole un esperienza di gioco fluida vicino i 60fps bisogna per forza abbassare le impostazioni grafiche, quindi alla fine possiamo anche definirla una vittoria di pirro.

Perché, gli 8GB sono un vantaggio finto?

Stai continuando ad ignorare la questione del vantaggio a prescindere , che permette di impostare texture migliori senza peso aggiuntivo

Nel caso di schede vecchie come la 580 sono un vantaggio illusorio, perchè devi comunque abbassare gli altri settaggi se vuoi stare sui 60fps, e mica esistono solo le texture eh...che poi in alcuni giochi non cambia una fava visivamente tra ultra/alte/medie, quindi andrebbe preso caso per caso.

Schede come la 1080 Ti per esempio, gli 11GB dovrebbero essere un bel vantaggio giusto? Eppure le prende da una 2070 Super con 8GB :rolleyes:

Scusa, eh, ma la fai qualche prova con una scheda da 6GB a 1080p, che a volte può arrivare a 1440p come fa un 2060 liscia, o guardi solo i test sommari?

Una 2060 liscia l'ho avuta nell'altro PC fino a poco tempo fa, quei 6GB erano il tallone di achille di quella scheda anche a 1080p, e a 1080p una GTX-1060 ancora fa partire in nuovo, in cui si potrà aumentare una tacca la qualità delle texture senza colpo ferire. Va meglio così?

Ma non spariamo cavolate per piacere! Nemmeno su Far Cry 6 con texture HD (che è uno degli scenari peggiori, oltre ad essere un titolo sponsorizzato AMD) viene messa in difficoltà.

https://i.imgur.com/lTNqwYL.png

Non serve più di tanto vedere il futuro, perché già 8GB in qualche caso non bastano...

Si, Far Cry 6 + texture hd e Doom Eternal, entrambi in 4k (tu giochi in 4k con una 3070?).

...non bisogna essere un indovino per capire che più tempo passa e meno basteranno

Ma certo, chi lo mette in dubbio questo? Solo che quando non basteranno più per davvero, la scheda sarà già bella che sostituita.

C'è qualcuno che può pensare che tra 2 anni la 3070 non sarà ancora più limitata? Garantisce lui?

Perché la storia dei GB in più che saranno limitati dalla potenza l'ho sentita spesso, poi quando non bastano sono eccezioni, poi se diventano qualcosa in più scala una tacca e non preoccuparti...

Sapessi io quante volte ho sentito la storiella della schede con più GB che serviranno in futuro...ma io sono tranquillissimo, semmai non preoccuparti te se dovrai comunque abbassare le impostazioni grafiche perchè la gpu non riuscirà più a tenere il passo, l'importante è avere le texture settate su ultra, almeno per dare un senso a quei mille! (cit.) gb di vram acquistati 6 anni prima e che potrai (finalmente) sfruttare :Prrr:

Fos
17-11-2022, 23:25
...Eh vabbè, tocca sempre rocominciare il giro.

Non hai visto mai visto schede con 6GB sofrire perché non le hai avute.

Che c'entra la 1080 Ti contro la 2070? Fai finta di non capire?
Potrà comunque usare texture a qualità superiore, che non pesano nel resto (e 3).

Con la 580 dovrai abbassare altrio, che nell'uso della VRAM pesa poco o niente, ma le texture potrai continuare a tenerle sopra la 1060.
Non ho capito se non ti entra o se non ti quadra...

Se non te la tieni dare il consiglio che non serve è comunque sbagliato.
Se tieni le schede 6 mesi il problema non si porrà mai, no?
E comunque dovrai pure rivenderla, e indovina cosa si venderà meglio...

Quel test ha qualche problema, oppure hanno usato una parte strana.
Dovresti sapere che col le texture HD di FarCry-6 ci sono problemi anche con 8GB, anzi, lo sai, visto che ci ricami, però alla fine sembri confuso...

Non ha perdite anomale manco la 5500 XT con 4GB, dovrebbe venirti qualche dubbio. Come dicevo, la risoluzione non è la prima cosa che pesa sulla VRAM, infatti:

https://tpucdn.com/review/far-cry-6-benchmark-test-performance/images/vram.png

Secondo te in pratica bastano pure 4GB, però con 8GB si accusa stuttering anche a 1080p. Chissà perché.
Quindi in uno degli scenari peggiori basterebbero pure 4GB, è l'equazione... sbagliata.

Ti parlavo anche di minimi e stuttering, e mi ripeto anche in questo.

Tra l'altro, lì si vede bene pure che la risoluzione incide relativamente poco in confronto alle texture, come è normale che sia. Inutile ripartire con i 4K della 3070, pascolando sempre lì intorno.

Non è la risoluzione di rendering il primo punto, e 4.

Le razzate le spari tu se pensi veramente di continuare a parlare di risoluzione di rendering facendo finta che quello appena sopra non sia un dato di fatto.

Le storielle della scheda grafica con 6GB che non ha problemi a 1080p le racconti tu, io non ho detto che conta solo la VRAM, sei tu che in buona sostanza sostieni che non conti quasi una cippa.

Ah, evita di prenderti certe libertà, che non è il caso. :rolleyes:

StylezZz`
18-11-2022, 12:33
Non hai visto mai visto schede con 6GB sofrire perché non le hai avute

Ti riferisci a te? Perchè dopo la cavolata della 2060 che con 6GB soffre a 1080p, se permetti il dubbio mi è venuto.

Che c'entra la 1080 Ti contro la 2070? Fai finta di non capire?
Potrà comunque usare texture a qualità superiore, che non pesano nel resto

Dovrai comunque abbassare il resto dei settaggi se vuoi stare almeno sui 50/60fps a 1440p con i nuovi giochi, e ripeto, riguardo le texture va preso caso per caso, perchè spesso non c'è nessuna differenza con le impostazioni superiori.

Con la 580 dovrai abbassare altrio, che nell'uso della VRAM pesa poco o niente, ma le texture potrai continuare a tenerle sopra la 1060.
Non ho capito se non ti entra o se non ti quadra...

Nell'uso della VRAM no, ma nell'uso della gpu (che è la cosa più importante) si, quindi ridomandiamo, cosa te ne fai delle texture sparate su ultra, se poi devi comunque abbassare la qualità generale per giocare decentemente?

Se non te la tieni dare il consiglio che non serve è comunque sbagliato.
Se tieni le schede 6 mesi il problema non si porrà mai, no?

Ma anche se la tieni 5/6 anni, e chi ha acquistato una 1060 lo sa bene, la scheda ormai è arrivata al suo limite e va comunque cambiata, stessa cosa con la 580 8GB. La 2060 è uscita nel 2019, e almeno altri 2 anni se li farà tranquilli con dlss+fsr.

E comunque dovrai pure rivenderla, e indovina cosa si venderà meglio...

Si rivendono GTX 970 con 4GB (3.5GB) a 100 euro, scheda di 8 anni fa.

La RX 580 8GB e la GTX 1060 6GB si rivendono più o meno allo stesso prezzo (120-130 euro), e chiaramente i GB non sono l'unica cosa che si va vedere, per esempio ci sono i consumi inferiori della 1060.

Quel test ha qualche problema, oppure hanno usato una parte strana.
Dovresti sapere che col le texture HD di FarCry-6 ci sono problemi anche con 8GB, anzi, lo sai, visto che ci ricami, però alla fine sembri confuso...

Si se spari in 4k, guardati questo video con 50 giochi testati va:

https://www.youtube.com/watch?v=f0yo2Sc-DyI

Non ha perdite anomale manco la 5500 XT con 4GB, dovrebbe venirti qualche dubbio. Come dicevo, la risoluzione non è la prima cosa che pesa sulla VRAM, infatti...

Infatti non guardi nemmeno quello che posti, 2GB in più di VRAM occupata in 4k rispetto 1440p :doh:

E riguardo la 5500 XT 4GB, anche se Far Cry ne occupa 6GB a 1080p con le texture, non è detto che debba avere per forza perdite anomale se satura la memoria, ricordo con la GTX 770 2GB sparavo tutto al massimo (senza physx ovviamente) su Batman Arkham Knight, che all'epoca si mangiava tantissima memoria.

Secondo te in pratica bastano pure 4GB, però con 8GB si accusa stuttering anche a 1080p. Chissà perché.
Quindi in uno degli scenari peggiori basterebbero pure 4GB, è l'equazione... sbagliata

Nel 2022 no, ormai è il minimo indispensabile per giocare anche a 1080p, infatti ho sempre criticato la 6500 XT.

Ti parlavo anche di minimi e stuttering, e mi ripeto anche in questo.

Tra l'altro, lì si vede bene pure che la risoluzione incide relativamente poco in confronto alle texture, come è normale che sia. Inutile ripartire con i 4K della 3070, pascolando sempre lì intorno.

Non è la risoluzione di rendering il primo punto, e 4

E invece ci riparto eccome, come anche dimostrato dal test postato da te su Far Cry sono 2GB in più in 4K (ti sembrano pochi?). Con la 3070 gioco tutto a 1440p maxato, non ho stuttering, e la vram occupata nella maggioranza dei giochi si mantiene a 5/6GB. Giusto su Horizon ho visto più di 7GB quando lo giocai con la 2070 Super maxato a 1440p (senza dlss), un esperienza di gioco liscia come l'olio ;)

Le razzate le spari tu se pensi veramente di continuare a parlare di risoluzione di rendering facendo finta che quello appena sopra non sia un dato di fatto

Ma se non guardi nemmeno quello che posti, ma per piacere :asd:

Le storielle della scheda grafica con 6GB che non ha problemi a 1080p le racconti tu, io non ho detto che conta solo la VRAM, sei tu che in buona sostanza sostieni che non conti quasi una cippa.

Ah, evita di prenderti certe libertà, che non è il caso. :rolleyes:

In ottica ''future proof'' si, non conta una cippa.

Ah giusto per rendere la cosa ancora più esilarante, io all'epoca ero uno di quelli che difendeva Polaris rispetto la 1060 proprio per gli 8GB, poi con l'esperienza e provando un po' le varie schede mi sono reso conto che in gioco non servivano a nulla (se non appunto dopo anni quando la scheda era già vecchia e incapace di gestire in modo soddisfacente gli ultimi giochi), magari un giorno ci arriverai anche tu a capirlo.

Fos
19-11-2022, 18:09
Ti riferisci a te? Perchè dopo la cavolata della 2060 che con 6GB soffre a 1080p, se permetti il dubbio mi è venuto.La 2060 l'ho avuta fino all'altro ieri, e la differenza di fluidità generale quando si abbassa una tacca la qualità delle texture s'è vista. Basta non volerla negare.

Dovrai comunque abbassare il resto dei settaggi se vuoi stare almeno sui 50/60fps a 1440p con i nuovi giochi, e ripeto, riguardo le texture va preso caso per caso, perchè spesso non c'è nessuna differenza con le impostazioni superiori.Stai cambiando discorso, continuando a rimbalzare su cose che col buffer della GPU c'entrano ben poco. Che spesso non c'è una differenza lo dici tu, e solo tu.
Quindi sostieni che l'ultima tacca sia inutile. Sarà perché ti conviene, immagino...

Nell'uso della VRAM no, ma nell'uso della gpu (che è la cosa più importante) si, quindi ridomandiamo, cosa te ne fai delle texture sparate su ultra, se poi devi comunque abbassare la qualità generale per giocare decentemente? Nell'uso della GPU de che? Vuoi dire che la differenza di peso è degna di nota?
Questo perché devi legare per forza gli altri setting con la qualità delle texure, o perché non sai di cosa parli?

Ma anche se la tieni 5/6 anni, e chi ha acquistato una 1060 lo sa bene, la scheda ormai è arrivata al suo limite e va comunque cambiata, stessa cosa con la 580 8GB. La 2060 è uscita nel 2019, e almeno altri 2 anni se li farà tranquilli con dlss+fsr.Ancora...? Si sta parlando del relativo vantaggio di avere un buffer maggiore. Ho detto che senza maxare le texture la scheda non funziona? NO.

Si rivendono GTX 970 con 4GB (3.5GB) a 100 euro, scheda di 8 anni fa.

La RX 580 8GB e la GTX 1060 6GB si rivendono più o meno allo stesso prezzo (120-130 euro), e chiaramente i GB non sono l'unica cosa che si va vedere, per esempio ci sono i consumi inferiori della 1060.I GB sono l'unica cosa da vedere se si sta pralando dei GB presenti in una scheda, gli stessi che ti permetteranno di avere un vantaggio nelle opzioni che li usano, in particolare la qualità delle texture.

Le 970 che si vendono ancora non c'entrano nulla, in particolare in un periodo come questo, così come non c'entra il consumo, perchè non stavamo parlando di quello.
Se parlavamo di quello, non ti avrei detto di guardare la qualità delle texture, così chiudo il cerchio, per ora.

Ormai è evidente che stai facendo finta di non capire, inutile nascondere pure quello...

Si se spari in 4k, guardati questo video con 50 giochi testati va:

https://www.youtube.com/watch?v=f0yo2Sc-DyIM'è bastato FarCry-6, in cui la 3070 arriva a 9fps minimi.
Strano, perché a 1080p bastavano 4GB, si vede che moltiplicare la res. fa il x4, oppure no.

Ci mischi potenziali diversi, che non bastano quando serve VRAM.
Come nel test che postavi prima, in cui 4GB smebravano sufficienti a 1080p, il picco minimo anomalo dovuto alla scarsità di VRAM potrebbe non vedersi.

E ritorna il discorso sullo stuttering anomalo che vorresti mandar via.
Già la 3070 con 8GB arranca, scommetto che tra 2 anni andrà meglio, ottimizzeranno l'uso della VRAM, te lo dico io...

Infatti non guardi nemmeno quello che posti, 2GB in più di VRAM occupata in 4k rispetto 1440p :doh:Casualmente guardi la differenza maggiore, che nella media è pure anomala, sta solo sullle AMD, in cui guardacaso scendendo a 1080p ci guadagni solo mezzo giga, mentre salti i soli 2GB di differenza tra 1080p e 4K con la 3090. 4x in risoluzione per 2 GB, ti paiono tanti?

Parlavo di primo parametro, e le texture rimangono tali, guarda quando occupa a 1080p, anche senza RT, ti pare bastino 6GB? NO-2.

E riguardo la 5500 XT 4GB, anche se Far Cry ne occupa 6GB a 1080p con le texture, non è detto che debba avere per forza perdite anomale se satura la memoria, ricordo con la GTX 770 2GB sparavo tutto al massimo (senza physx ovviamente) su Batman Arkham Knight, che all'epoca si mangiava tantissima memoria.Semmai sarebbe il caso di dire che è difficile non averle, è più facile che qualcuno non se ne accorga...

Nel 2022 no, ormai è il minimo indispensabile per giocare anche a 1080p, infatti ho sempre criticato la 6500 XT.Minimo indispensabile è un discorso diverso dall'utile a migliorare la qualità delgi asset. E ci riprovi...

E invece ci riparto eccome, come anche dimostrato dal test postato da te su Far Cry sono 2GB in più in 4K (ti sembrano pochi?). Con la 3070 gioco tutto a 1440p maxato, non ho stuttering, e la vram occupata nella maggioranza dei giochi si mantiene a 5/6GB. Giusto su Horizon ho visto più di 7GB quando lo giocai con la 2070 Super maxato a 1440p (senza dlss), un esperienza di gioco liscia come l'olio ;) Con le texture HD la VRAM necessarie è di più, e fa più differenza della risoluzione.

5-6GB medi a 1440p, ma a chi la racconti? Horizon nltra eccezione?
GOW e Spider-Man altre ancora? Con la 1060 supportata puoi mettrere la qualità delle texture come la 580? NO-3.

Più che riparti torni indietro, altroché...

Ma se non guardi nemmeno quello che posti, ma per piacere :asd:Per comodità dai anche per assimilato il tuo comodo.
Quello che ha dimostrato di saltare i test sei tu, non mi sembra di aver parlato di GB, ho detto che le texture prendono più dell'aumento di risoluzione, e lo confermo.

Magari per l'ultima comodità alla fine mi cercerai il paragone tra 720p e 4K? È chiaro che va rapportato, il doppio della risoluzione non prende quanto il doppio di quella delle texture, e spesso basta una tacca sopra.

In ottica ''future proof'' si, non conta una cippa.Certo, infatti dai casi in cui i 6GB non bastano s'è visto che tu non hai mai potuto assistere ad una GPU da 6GB non sufficiente a 1080p, eh...

Ah giusto per rendere la cosa ancora più esilarante, io all'epoca ero uno di quelli che difendeva Polaris rispetto la 1060 proprio per gli 8GB, poi con l'esperienza e provando un po' le varie schede mi sono reso conto che in gioco non servivano a nulla (se non appunto dopo anni quando la scheda era già vecchia e incapace di gestire in modo soddisfacente gli ultimi giochi), magari un giorno ci arriverai anche tu a capirlo.Esilarante è che parli degli 8GB della 580 all'epoca...
Ancora sono comodamente nei minimi, e, sì, con la 580 spesso e volentieri puoi permetterti texture migliori della 1060, che, per inciso: Era quello di cui si stava parlando.

Te lo dicevo che a te le schede invecchiano velocemente per altro, grazie al piffero che... future proof è l'esempio della scheda con più GB che più avanti ne approfitta, così come ha approfittato della maggiore dimestichezza col DX-12 ecc...


Il sunto: Mai visto una GPU con 6GB abbozzare a 1080p. Poi viene la conseguenza senza coerenza:
Ma quello è un caso, l'altro pure, il terzo è eccezione, spesso non cambia niente, e altre razzate che lo diventano meglio messe davanti alla tua affermazione.

Se volevi dire che abbozzando con le texture con 6GB si cammina lo stesso: Lo hai scritto male.

Tutto fumo... Pippe, nient'altro che loro. :rolleyes:

StylezZz`
19-11-2022, 19:23
5-6GB medi a 1440p, ma a chi la racconti?

Fatto proprio adesso su RDR2 con impostazioni ultra tranne la qualità riflessi settata su alta:

https://i.imgur.com/nQCR7G1.jpg

https://i.imgur.com/JGOtwuu.jpg

Esilarante è che parli degli 8GB della 580 all'epoca...

Polaris non è solo la 580, nel 2016 ci stavano le RX 400, stiamo parlando di più di 6 anni fa (che in informatica sono tanti), la 580 è uscita nel 2017. Se non ti piace ''all'epoca'' allora rettifico: ai tempi*

Non ho voglia di commentare il resto (si commenta da solo), e quello che dovevo dire l'ho detto...con questo post ti saluto e alla prossima, magari tra qualche anno faremo un resoconto di tutti i giochi che non ho potuto giocare decentemente a causa della vram :stordita:

ps: ho notato adesso che hai una 6600 XT in firma (con soli 8GB :eek:), da te mi sarei aspettato almeno una 3090 con 24GB giusto per essere ''future proof'' :asd:

Fos
20-11-2022, 00:21
...Tra 2 anni la 3070 te la sarai venduta, poi tra 4 dirai che più di 8GB non serve con la 3070... :O

Dai che in RDR-2 si vedeva che nei minimi non bastavano 6GB, non ricominciamo...
Ecco, bravo, lasciamo perdere, che è meglio.

La 6600 XT è abbinata ad uno schermo 1080p, quindi continua a quadrare.
Sull'altro ho una 6900 XT, direi che per ora può bastare senza dire la risoluzione...

Visto che raccontavi del tuo: La 2060 liscia l'ho avuta nel periodo grigio, quando la 580 è andata per un fulmine, insieme alla mb e all'alimentatore.

Siccome era un Strix, il tipo (dei dintorni) credeva fosse una 2060 Super (la vedeva grossa...). Dopo aver contrattato, mi accorgo che invece era una 2060 liscia.
Visto che c'ero, e che comunque il prezzo era buono, scalo 50€ e me la tengo.

Usandola ho notato che come potenza per il 1080p stava messa piuttosto bene, tanto che non di rado mi permetteva il downsampling da 1440p. L'unico problema, appunto, erano quei 6GB di VRAM.

Se lo avessi saputo dal principio non l'avrei presa, ma con la magra del periodo, il prezzo competitivo, e il fatto che era pure una Strix, con un dissi sovradimensionato che ammutoliva la scheda...

Scalavo una tacca e non mi lamentavo più di tanto, però quella tacca non la scalavo una volta all'anno...

Esempio pratico dove può fare una differenza categorica?
Final Fantasy VII non ha vie di mezzo con le texture, o da PS4 o da PS5.
Con la 2060 se correvo stutterava più del solito (perché già partiva male, anche se mettendolo in DX-11 il grosso passava) e non caricava correttamente le texture.

Dopo quello, la vendo per passare ad una 2080, poi ho trovato una 6600 XT NITRO+ a prezzo, c'era un amico interessato alla MSI 2080... ed ho cambiato ancora.

Lo so che come prestazioni ci ho rimesso (poca roba), ma siccome avanzavano più di 100€...