View Full Version : AMD Radeon RX 7900 XTX e 7900 XT: le prime schede con architettura RDNA 3
Redazione di Hardware Upg
03-11-2022, 21:50
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/6414/amd-radeon-rx-7900-xtx-e-7900-xt-le-prime-schede-con-architettura-rdna-3_index.html
Arriveranno sul mercato dal prossimo 13 dicembre le prime due soluzioni AMD basate su architettura RDNA 3 di nuova generazione, destinate a scontrarsi con le proposte NVIDIA GeForce RTX della serie 4000. Radeon RX 7900 XTX verrà proposta a 999 dollari, mentre per Radeon RX 7900 XT il listino sarà di 899 dollari.
Click sul link per visualizzare l'articolo.
lzeppelin
03-11-2022, 22:12
999 dollari la top di gamma!!!
Saranno circa 1250 euro da noi?
E 100 watt in meno della 4090?
Beh a questo punto non mi interessa nemmeno il confronto con la 4090.
Senza sminuire il lavoro tecnologico fatto da nvidia.
totalblackuot75
03-11-2022, 22:14
beh l'evoluzione (anche enorme) c'e' stata pure per Nvidia con le sue 4XXX rispetto alle 3XXX la vera differenza la fara' sempre il rt che per amd e' una tecnologia ancora "immatura" cmq viva la concorrenza
Marckus87
03-11-2022, 22:17
999 dollari la top di gamma!!!
saranno circa 1250 euro da noi?
E 100 watt in meno?
E poi è la metà di una 4090!!
Beh a questo punto non mi interessa nemmeno il confronto con nvidia.
eh:confused: la 4080 costa 1600-1900 se la XTX va a 1200-1300 direi che non ci dovremmo lamentare, sia chiaro non gli spenderò mai quelle cifre per una vga
agonauta78
03-11-2022, 22:27
1200 euro Iva esclusa, costeranno di più, andranno di meno e non si troveranno da nessuna parte.
OrazioOC
03-11-2022, 22:30
Niente nvidia ha già bisogno della 4080 ti a neanche un mese dal lancio della 4090...
Per non parlare poi di come la 4080 12gb avesse il prezzo di listino della 7900 xt.:rolleyes:
Marckus87
03-11-2022, 22:38
Niente nvidia ha già bisogno della 4080 ti a neanche un mese dal lancio della 4090...
Per non parlare poi di come la 4080 12gb avesse il prezzo di listino della 7900 xt.:rolleyes:
se ti vai a rileggere i commenti :read: all'annuncio delle 4xxx ti spacchi in 4 dalle risate :D
Presentazione all'insegna del trollare Nvidia.
Buona parte delle slide nascondo una trollata, tipo i limiti del DP1.4, le slide "easy upgrade" che mostrano come non serve una case grosso come una casa e 102 connettori di alimentazione.
E poi quel "don't need new power adapater" seguito da una trollface da manuale :asd:
Tutto molto bello, dimensioni, consumi e prezzi più umani della concorrenza ecc... Ma frequenze deludenti. Sembra che AMD non abbia voluto affondare il colpo fino in fondo, perché bastava tirare un po' le frequenze per fare della XTX il prodotto halo che dovrebbe essere rinunciando a un po' di quell'ottima efficienza.
C'è soltanto l'incognita degli AIB, quanto margine di manovra avranno? Spero molto :O
Una cosa è certa, la rtx 4080 non avrà vita facile a quel prezzo.
Marckus87
03-11-2022, 23:26
Tutto molto bello, dimensioni, consumi e prezzi più umani della concorrenza ecc... Ma frequenze deludenti. Sembra che AMD non abbia voluto affondare il colpo fino in fondo, perché bastava tirare un po' le frequenze per fare della XTX il prodotto halo che dovrebbe essere rinunciando a un po' di quell'ottima efficienza.
C'è soltanto l'incognita degli AIB, quanto margine di manovra avranno? Spero molto :O
Una cosa è certa, la rtx 4080 non avrà vita facile a quel prezzo.
forse non volevano impelagarsi subito nel connettore da 12, tant'è, se non mi sbaglio, sono rimasti proprio ai limiti dei due da 8, e se mai uscirà una 7950 avrà 400-430W e connettore da 12pin
Ale55andr0
03-11-2022, 23:29
1200 euro Iva esclusa, costeranno di più, andranno di meno e non si troveranno da nessuna parte.
veramente fanno circa 1250 iva inclusa al cambio attuale
Ale55andr0
03-11-2022, 23:30
Tutto molto bello, dimensioni, consumi e prezzi più umani della concorrenza ecc... Ma frequenze deludenti. Sembra che AMD non abbia voluto affondare il colpo fino in fondo, perché bastava tirare un po' le frequenze per fare della XTX il prodotto halo che dovrebbe essere rinunciando a un po' di quell'ottima efficienza.
C'è soltanto l'incognita degli AIB, quanto margine di manovra avranno? Spero molto :O
Una cosa è certa, la rtx 4080 non avrà vita facile a quel prezzo.
suppongo si siano "autolimitati" con 2x8pin, il che va benissimo, 350w non son pochi, figurarsi 450
narniagreen
03-11-2022, 23:43
Lisa ha appena cagato sulla giacca di pelle di Jensen :asd:
Presentazione all'insegna del trollaggio, Easy upgrade e il cap limiter del DP 1.4 :D
Battute a parte, tecnicamente dal punto di vista aziendale AMD sta almeno una generazione avanti, di fatto sforna un chip che è di appena 300mmq, un chip di fascia media collegandolo a delle cache da 37mmq che costano meno delle patatine di sottomarca del Lidl in sconto.
Di fatto rendono la 4090 una scheda vecchia di 10 anni come concezione, ridicola dal punto di vista ingegneristico con i suoi 600mmq monolitici e un sistema di dissipazione che come volume "costa" 2 schede video, da 4 slot 33cm e 2,2 kg di peso.
A livello tecnico il dual motor issue CU costa ad AMD parecchio clock, di fatto si torna in pari con Nvidia, ma questo porta incrementi di IPC mostruosi, praticamente RDNA3 assieme alla logica del GCD e MCD è di fatto lo Zen1 delle GPU.
Sicuramente c'è dello spazio per una uber 7950XTX da 450watt a 3ghz, ma hanno fatto bene a non perdere efficienza per un 10 o 15% di prestazioni, tanto usciranno le custom da 3x8pin a quei clock da 1500€ iva compresa.
Come prestazioni Raster, pare essere una 4080ti, quelle RT una 4070ti/3090ti, la cosa ottima è che costa molto meno di una ipotetica 4080ti e meno o come una 4070/ti, in pratica la 4080 a 1200$ di msrp nasce già fuori mercato.
Sono contento che in RT vada meno, i prezzi rimarranno sensibilmente più bassi oltre che al discorso ingegneristico dove i costi che AMD deve sostenere sono più bassi addirittura di ADA103, anche per le prestazioni RT.
la 7900XTX a 1000$ msrp, 1250€ iva compresa, non se lo aspettava più nessuno, ottimo lavoro.
supertigrotto
03-11-2022, 23:48
Oneste come schede,senza nulla togliere a Nvidia che però,vende a carissimo prezzo.
È presto per fare valutazioni,ci sono ancora da sbloccare potenzialità attraverso i driver.
Intel mi sa che dovrà lavorare parecchio sodo,sia AMD ,sia Nvidia sono parecchio avanti con le prestazioni.
forse non volevano impelagarsi subito nel connettore da 12, tant'è, se non mi sbaglio, sono rimasti proprio ai limiti dei due da 8, e se mai uscirà una 7950 avrà 400-430W e connettore da 12pin
suppongo si siano "autolimitati" con 2x8pin, il che va benissimo, 350w non son pochi, figurarsi 450
Ero rimasto che con quel connettore si può arrivare a 375W, che sono 20 in più della XTX. Avranno tenuto più margine per via dei picchi.
È uno Zen moment comunque, anche in quel caso Intel ha mantenuto il primato per qualche tempo, solo che probabilmente Nvidia arriverà al proprio design MCM prima di Intel. Lo spero per loro perché altrimenti i margini coleranno a picco.
Piuttosto chissà se FSR 3 girerà anche sulle RTX 3xxx :asd:
Marckus87
04-11-2022, 00:05
Ero rimasto che con quel connettore si può arrivare a 375W, che sono 20 in più della XTX. Avranno tenuto più margine per via dei picchi.
È uno Zen moment comunque, anche in quel caso Intel ha mantenuto il primato per qualche tempo, solo che probabilmente Nvidia arriverà al proprio design MCM prima di Intel. Lo spero per loro perché altrimenti i margini coleranno a picco.
Piuttosto chissà se FSR 3 girerà anche sulle RTX 3xxx :asd:
e suppongo anche per lasciare uno spazio di manovra, per quanto piccolo, per le versioni custom
e suppongo anche per lasciare uno spazio di manovra, per quanto piccolo, per le versioni custom
Sembra che lo spazio ci sia e anche abbastanza importante.
https://edgeup.asus.com/2022/tuf-gaming-rx-7900-xtx-and-tuf-gaming-rx-7900-xt/
Consigliano un alimentatore da 800W quindi secondo i miei calcoli dovrebbe essere una scheda da 400W.
Aspettiamo di vedere le frequenze, potrebbero esserci sorprese.
Tuvok-LuR-
04-11-2022, 00:13
Presentazione all'insegna del trollare Nvidia.
Buona parte delle slide nascondo una trollata, tipo i limiti del DP1.4, le slide "easy upgrade" che mostrano come non serve una case grosso come una casa e 102 connettori di alimentazione.
E poi quel "don't need new power adapater" seguito da una trollface da manuale :asd:
beh, non avendo le prestazioni, devono andare su quello :asd:
ben venga il nuovo standard DP ma quando a malapena la 4090 riesce ad andare sopra i 144 in 4K vorrei capire perche' e' cosi' essenziale su una scheda piu' lenta.
poi anche il 12VHPWR e' uno standard, ma quello e' brutto e cattivo a quanto pare perche' ce l'ha nvidia.
e che una scheda piu lenta consumi meno e sia piu piccola non mi sembra una grande scoperta, magari avra' piu senso confrontarla con la 4080
poi come se chi compra una gpu da 1000+ euri si faccia di questi problemi...
Marckus87
04-11-2022, 00:43
4090 FPS 144 $1,600
7900XTX FPS 131 $999
7900XT FPS 115 $899
4080 FPS 110 $1,200
EX4080 FPS 81 $???
in raster a grandi linee, ovviamente sono tutti calcoli che vanno presi con le pinze
Buone schede e prezzi "competitivi", anche se qui stiamo parlando sempre della fascia ultra-enthusiast, che interesserà il 2 % del mercato a dir tanto.
Mi interessa di più capire performance e prezzi delle schede di fascia media e medio-alta, che fanno la gran parte del mercato. Se continueranno ad avere prezzi dai 400 € in su, non sarà questo grande miglioramento.
Riguardo l'architettura MCM, questa implementazione la trovo un pò farlocca: di fatto hanno separato solo le memorie, se capisco bene, la GPU continua ad essere un die monolitico, differentemente dai Ryzen che hanno due die nei modelli di fascia più alta. Mi sarei aspettato un approccio simile, con chiplet compute scalabili in numero a seconda della fascia.
Max Power
04-11-2022, 02:52
Notevole differenza nel numero di transistor, rispetto la 4090.
Ma qui ci sono due unità AI per ogni core, mentre su Nvidia sono sempre stati separati (tensor core).
Frequenze poco spinte (2500Mhz vs 2845 della 6500XT 6nm).
Posizionamento interessante per questi nuovi prodotti. Nvidia troverà diversi problemi a giustificare il prezzo della "4080", che quasi certamente avrà performance standard ben inferiori alle 7900XTX pur costando centinaia di euro in più.
Lato raytracing tuttavia RDNA3 è piuttosto deludente. I rumor parlavano continuamente di un aumento di performance di oltre 2 volte, invece pare l'aumento sia di circa la metà, il che significa che il gap prestazione con Nvidia non solo non si è ridotto, ma è addirittura aumentato.
Un bel problema considerando l'importanza crescente del ray tracing, specialmente dato che sarà usato di default in Lumen, il nuovo sistema di Global Illumination dell'Unreal Engine 5, il che significa che sarà usatissimo nell'industria.
Riguardo l'architettura MCM, questa implementazione la trovo un pò farlocca: di fatto hanno separato solo le memorie, se capisco bene, la GPU continua ad essere un die monolitico, differentemente dai Ryzen che hanno due die nei modelli di fascia più alta. Mi sarei aspettato un approccio simile, con chiplet compute scalabili in numero a seconda della fascia.
Le schede video sono molto più sensibili al discorso latenza rispetto ad una CPU, credo che al momento performance/costi questo sia l'approccio giusto. Il chip principale rimane comunque abbastanza piccolo da poter avere ottimi numeri e rese per wafer, il prezzo sta anche lì a dimostrarlo. 999$ con più transistor della 4080 e più componenti sul PCB, dissipatore a parte.
C'è da dire che Jensen sulla "4080" 16 ha caricato molto più che sulle 4090 :sofico: . E si spiega perfettamente la cancellazione della "4080" da 12 direi, quella rischiava di essere davvero troppo sotto in raster, e forse poco sopra in RT (a ipotesi), ram dimezzata etc. a pari prezzo.
Io personalmente son curioso dell'encoder video, se AMD si è messa in pari con nVidia (o almeno Intel) potrei essere interessato, è la cosa che mi manca di più (qualitativamente) con la 6900 XT, in ogni caso a questo punto si aspettano recensioni di queste 7900 e della 4080 16.
lzeppelin
04-11-2022, 07:38
interessa poco del raytracing, per come é implementato adesso nei giochi ha davvero pochissimo in più rispetto ad una buona rasterizzazione. se costa molto meno di una 4090 e mi fa 60fps in 4k RT compreso non ho dubbi sulla scelta
ghiltanas
04-11-2022, 08:09
Sembrano davvero valide, fa piacere vedere che hanno avuto un occhio di riguardo per i consumi.
beh, non avendo le prestazioni, devono andare su quello :asd:
ben venga il nuovo standard DP ma quando a malapena la 4090 riesce ad andare sopra i 144 in 4K vorrei capire perche' e' cosi' essenziale su una scheda piu' lenta.
poi anche il 12VHPWR e' uno standard, ma quello e' brutto e cattivo a quanto pare perche' ce l'ha nvidia.
e che una scheda piu lenta consumi meno e sia piu piccola non mi sembra una grande scoperta, magari avra' piu senso confrontarla con la 4080
poi come se chi compra una gpu da 1000+ euri si faccia di questi problemi...
In che senso non ha le prestazioni? Non si è visto molto, ma dai numeri che hanno condiviso va come una 4090 in raster ed è pure castrata. Le custom andranno più forte dato che già Asus ha già annunciato la 7900xtx con 3x8 pin. Si può recriminare qualcosa sul ray tracing, ma oggi con FSR la situazione è certamente più sopportabile.
Aspetterei le prove sul campo prima di decretare il vincitore.
Pandemio
04-11-2022, 08:16
Diciamo che entrambi fuori portata,aspetto che il vecchio scenda ancora un po' ...prezzi per la maggioranza di noi italiani fuori dal mondo.
StrixyRoG
04-11-2022, 08:17
In che senso non ha le prestazioni? Non si è visto molto, ma dai numeri che hanno condiviso va come una 4090 in raster ed è pure castrata. Le custom andranno più forte dato che già Asus ha già annunciato la 7900xtx con 3x8 pin. Si può recriminare qualcosa sul ray tracing, ma oggi con FSR la situazione è certamente più sopportabile.
Aspetterei le prove sul campo prima di decretare il vincitore.
Questa poi :D Una scheda che deve fare concorrenza alla 4080, adesso supera anche la 4090 ed è castrata, quindi supererà anche la nuova serie 5000. Strano che non abbiano messo delle slide vs Nvidia.
Questa poi :D Una scheda che deve fare concorrenza alla 4080, adesso supera anche la 4090 ed è castrata, quindi supererà anche la nuova serie 5000. Strano che non abbiano messo delle slide vs Nvidia.
Dalla nomeclatura deve fare concorrenza alla 4090 ed è esattamente quello che farà. Andrà leggermente meno della 4090 in raster e sensibilmente meno in rt, ma dimensioni, prezzi e consumi nella decenza al contrario di Nvidia. Le custom andranno più forte, ma non mi aspetto certo un +10%, se fosse +5% sarebbe già buono per pareggiare i conti in raster con la 4090.
La 4080 è una categoria più bassa e difficilmente avrà mercato a quel prezzo.
Ale55andr0
04-11-2022, 08:33
Questa poi :D Una scheda che deve fare concorrenza alla 4080, adesso supera anche la 4090 ed è castrata, quindi supererà anche la nuova serie 5000. Strano che non abbiano messo delle slide vs Nvidia.
esattamente nel post quotato, dove, diamine, hai letto tutto quello che dici? :rolleyes: dice solo che va come una 4090 in raster ergo nulla di tutto quanto hai buttato giù, e non mi pare certo una balla visto che una 4090 fa +60% sulla vecchia generazione (3090) che era simile alla 6900 in raster. Che poi ci saranno le 3*8pin spinte dagli AIB mi pare anche ovvio, come è ovvio che andranno quindi di più (della 7900XTX reference, intendo).
Abbassa due o tre tacche la voce "fanboysmo spinto" va' :asd:
Bah, io spero solo che la fascia media ritorni a prezzi accettabili, non è possibile che la sola gpu costi più di cpu+mobo+ram:(
Vediamo se le "7600/7700" su che prezzi si assesteranno, ho qualche giochino nella mia libreria di steam che merita di essere rigiocato a dettagli più alti di quanto non potessi sulla 570 :)
beh, non avendo le prestazioni, devono andare su quello :asd:
ben venga il nuovo standard DP ma quando a malapena la 4090 riesce ad andare sopra i 144 in 4K vorrei capire perche' e' cosi' essenziale su una scheda piu' lenta.
poi anche il 12VHPWR e' uno standard, ma quello e' brutto e cattivo a quanto pare perche' ce l'ha nvidia.
e che una scheda piu lenta consumi meno e sia piu piccola non mi sembra una grande scoperta, magari avra' piu senso confrontarla con la 4080
poi come se chi compra una gpu da 1000+ euri si faccia di questi problemi...
Le prestazioni sono vicine alla 4090 da quanto mostrato (sempre da verificare sul campo chiaro) solo che consuma un bel pezzo meno e non serve una gru per metterla nel case.
Il 12VHPWR non è brutto e cattivo perché lo ha proposto Nvidia, è brutto è cattivo perché si squaglia e sfiamma.
È una scheda più piccola e che consuma meno, più lenta lo dici tu perché non riesci a fare correttamente 6950XT + 70% che la colloca molto vicino alla 4090.
Ma giustamente ho detto che è stata una presentazione all'insegna del trollaggio, quindi mi sembra giusto rispondere con altrettanto trollaggio.
carloUba
04-11-2022, 09:43
In realtà in un singolo caso, senza sapere con quale conf sw si avvicina ipoteticamente alla 4090.
In realtà, e giustamente, si colloca alla grande tra la 4080 e la 4090 ed è una figata assurda.
Ma il tifo da stadio costringe i dementi a voler per forza collocarla al pari o addirittura sopra una scheda che non prende in considerazione nemmeno amd stessa.
Invece di gioire per una scheda del genere, fantastica e dal rapporto prezzo/prestazioni clamoroso, vi sputtanate cercando di storpiare la matematica pur di giocare ai fanboy.
Incredibile
999 dollari la top di gamma!!!
Saranno circa 1250 euro da noi?
E 100 watt in meno della 4090?
Beh a questo punto non mi interessa nemmeno il confronto con la 4090.
Senza sminuire il lavoro tecnologico fatto da nvidia.
In effetti... Aspettiamo i test
999 dollari la top di gamma!!!
Saranno circa 1250 euro da noi?
E 100 watt in meno della 4090?
Beh a questo punto non mi interessa nemmeno il confronto con la 4090.
Senza sminuire il lavoro tecnologico fatto da nvidia.
Bah, io spero solo che la fascia media ritorni a prezzi accettabili, non è possibile che la sola gpu costi più di cpu+mobo+ram:(
Vediamo se le "7600/7700" su che prezzi si assesteranno, ho qualche giochino nella mia libreria di steam che merita di essere rigiocato a dettagli più alti di quanto non potessi sulla 570 :)
Curioso pure io
Una 7700 che magari vada come le attuali 6900 ad un prezzo di 350/450 euro
carloUba
04-11-2022, 09:54
Curioso pure io
Una 7700 che magari vada come le attuali 6900 ad un prezzo di 350/450 euro
magari no… ho due 6900 da vendere :muro:
Aspetto i test, però le premesse sembrano buone.
Certo che se siamo arrivati al punto di ritenere una scheda video, che probabilmente da noi sarà sui 1200 euro ammesso e concesso che si trovino a quella cifra, come conveniente, evidentemente qualcosa è andato terribilmente storto.
Le fasce medie di Nvidia e AMD a quanto saranno? 500-700 euro? Mi sembra una roba fuori dal mondo.
StrixyRoG
04-11-2022, 10:23
esattamente nel post quotato, dove, diamine, hai letto tutto quello che dici? :rolleyes: dice solo che va come una 4090 in raster ergo nulla di tutto quanto hai buttato giù, e non mi pare certo una balla visto che una 4090 fa +60% sulla vecchia generazione (3090) che era simile alla 6900 in raster. Che poi ci saranno le 3*8pin spinte dagli AIB mi pare anche ovvio, come è ovvio che andranno quindi di più (della 7900XTX reference, intendo).
Abbassa due o tre tacche la voce "fanboysmo spinto" va' :asd:
Guarda, a me del fanboysmo frega cazzi, io compro quello che mi pare senza stare a vedere l'azienda che lo produce. A leggere invece certi commenti, mi sa che se ci si attacca per due schede video, o l'azienda belle e brutta, si hanno ben altri problemi, a mio parere più gravi :D
Io ho guardato solo i numeri, ed oltretutto loro li hanno buttati lì senza un contesto, delle impostazioni, e senza confronti con slide vs la controparte, quindi sono tutte ipotesi.
Io ho preso un gioco a caso tipo god of war dove loro danno 98 fps in 4k (senza specificare nulla, scrivendo max), e la 4090 ne genera 160 senza dlss, quindi due domande me le faccio. Infatti aspetterò i test, del resto mi diverto solo a leggere.
In ogni caso scannatevi pure per le schede video, ho una vita migliore da vivere che prendermela per due pezzi di silico ;)
ray tracing è il futuro già ora è chiaro a TUTTI quelli che lo hanno che con le performance giuste il salto qualitativo non è davvero da poco(al netto di dev ed artisti competenti). Bisogna continuare a pagarlo per averlo nulla è gratis...anche gli shader ce li hanno fatto pagare come aggiunta per anni nelle schede di fascia alta. Trovassero nn punto di incontro (che ad nvidia non interessa)non farebbe schifo ...
però AMD non affronta l'elefante nella stanza anche a questo giro è chiaro che AMD continua a fare pagare ai gamer pc un'architettura che poi traslerà su ps6.PS6 userà RDNA 5 o addirittura RDNA6.
leddlazarus
04-11-2022, 10:58
domanda stupida. Ma quanti di voi giocano in 4K?
no tanto da sapere.
narniagreen
04-11-2022, 11:03
domanda stupida. Ma quanti di voi giocano in 4K?
no tanto da sapere.
Chiudete la chat.
:D
Guarda, a me del fanboysmo frega cazzi, io compro quello che mi pare senza stare a vedere l'azienda che lo produce. A leggere invece certi commenti, mi sa che se ci si attacca per due schede video, o l'azienda belle e brutta, si hanno ben altri problemi, a mio parere più gravi :D
Io ho guardato solo i numeri, ed oltretutto loro li hanno buttati lì senza un contesto, delle impostazioni, e senza confronti con slide vs la controparte, quindi sono tutte ipotesi.
Io ho preso un gioco a caso tipo god of war dove loro danno 98 fps in 4k (senza specificare nulla, scrivendo max), e la 4090 ne genera 160 senza dlss, quindi due domande me le faccio. Infatti aspetterò i test, del resto mi diverto solo a leggere.
In ogni caso scannatevi pure per le schede video, ho una vita migliore da vivere che prendermela per due pezzi di silico ;)
Dove hai visto le prestazioni in God of War? Nei grafici non ci sono. In ogni caso la 4090 fa 130 fps non 160 https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/21.html
La gente si esalta perchè costa la metà della 4090.
A questi lo stipendio è raddoppiato percaso negli ultimi 3 anni?
StrixyRoG
04-11-2022, 11:15
Dove hai visto le prestazioni in God of War? Nei grafici non ci sono. In ogni caso la 4090 fa 130 fps non 160 https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/21.html
Ho preso i primi 3 video su Youtube se vuoi andare a vedere ;)
La gente si esalta perchè costa la metà della 4090.
A questi lo stipendio è raddoppiato percaso negli ultimi 3 anni?
Oltretutto tutti partiti con le top, nemmeno una fascia media hanno presentato, probabilmente 1300 euro sarà la nuova base di partenza, senza contare che adesso per gestire certe schede serve anche la piattaforma di fascia alta.
ninja750
04-11-2022, 11:33
ray tracing è il futuro già ora è chiaro a TUTTI quelli che lo hanno che con le performance giuste il salto qualitativo non è davvero da poco
è il futuro, non il presente
il raytracing visto fino ad oggi fa ridere.
Darkless
04-11-2022, 11:46
... e finchè non si arriverà ad uno standard e ognuno proporrà la propria tecnologia proprietaria (con l'arrivo di Intel siamo arrivati a 3 RT diversi) quel futuro resterà lontano.
Tuvok-LuR-
04-11-2022, 11:54
... e finchè non si arriverà ad uno standard e ognuno proporrà la propria tecnologia proprietaria (con l'arrivo di Intel siamo arrivati a 3 RT diversi) quel futuro resterà lontano.
https://en.wikipedia.org/wiki/DirectX_Raytracing mi sa che sei rimasto coi talking points a 3 anni fa :asd:
... e finchè non si arriverà ad uno standard e ognuno proporrà la propria tecnologia proprietaria (con l'arrivo di Intel siamo arrivati a 3 RT diversi) quel futuro resterà lontano.3 implementazioni hardware diverse, così come ci sono 3 architetture di GPU diverse. Il software è sempre basato su DirectX Raytracing.
Spero in qualche bel calo di prezzo della serie 6000 sarebbe l'occasione buona :)
domanda stupida. Ma quanti di voi giocano in 4K?
no tanto da sapere.
Eretico :rotfl:.
ray tracing è il futuro già ora è chiaro a TUTTI quelli che lo hanno che con le performance giuste il salto qualitativo non è davvero da poco(al netto di dev ed artisti competenti). Bisogna continuare a pagarlo per averlo nulla è gratis...anche gli shader ce li hanno fatto pagare come aggiunta per anni nelle schede di fascia alta. Trovassero nn punto di incontro (che ad nvidia non interessa)non farebbe schifo ...
però AMD non affronta l'elefante nella stanza anche a questo giro è chiaro che AMD continua a fare pagare ai gamer pc un'architettura che poi traslerà su ps6.
Dove? Quando? Esiste? Sarà ma fino a che comandano le console rimarrà futuro.
Ale55andr0
04-11-2022, 12:37
Guarda, a me del fanboysmo frega cazzi, io compro quello che mi pare senza stare a vedere l'azienda che lo produce.
certo, basta già il nick :asd:
Ale55andr0
04-11-2022, 12:38
Ho preso i primi 3 video su Youtube se vuoi andare a vedere ;)
ovvero dei fake
... e finchè non si arriverà ad uno standard e ognuno proporrà la propria tecnologia proprietaria (con l'arrivo di Intel siamo arrivati a 3 RT diversi) quel futuro resterà lontano.
Non è mai esistita nessuna tecnologia proprietaria di RT (parlando di RT in game) tutti usano DirectX RT.
Ho preso i primi 3 video su Youtube se vuoi andare a vedere ;)
Link? Ho visto tutta la presentazione AMD (ovvero tutti i dati a disposizione finora) e non si parla mai di God of War.
Si ma lascialo stare lo conosco :asd: inoltre per me farà concorrenza alla 4080 dato che in rt è meglio. Anche per chi lavora preferirà le nvidia.
No, non mi conosci affatto. Per far concorrenza alla 4080 ci sara' la rx 7800xt(x).
Pandemio
04-11-2022, 13:17
Comunque strano che non ci sia qualche slide di prestazioni con giochi e programmi,magari confrontandoli con le 6xxx ..
Link? Ho visto tutta la presentazione AMD (ovvero tutti i dati a disposizione finora) e non si parla mai di God of War.
No, non mi conosci affatto. Per far concorrenza alla 4080 ci sara' la rx 7800xt(x).C'è una slide sul sito AMD che non è stata mostrata nella presentazione:
https://i.imgur.com/YGXijaN.jpg
Spero in qualche bel calo di prezzo della serie 6000 sarebbe l'occasione buona :)
non so dove sei stato negli ultimi due mesi ma le big navi sono in costante calo da mo' come è fisiologico che sia .... vedo 6900XTXH asrock a poco più di 700€ nuove, 6800XT (best bang for the buck) quais un centinaio sotto.....certo se aspetti una 6900XT a 499 auguri....
non so dove sei stato negli ultimi due mesi ma le big navi sono in costante calo da mo' come è fisiologico che sia .... vedo 6900XTXH asrock a poco più di 700€ nuove, 6800XT (best bang for the buck) quais un centinaio sotto.....certo se aspetti una 6900XT a 499 auguri....Una ipotetica 7700XT non dovrebbe essere troppo distante dalla 6900 e magari 500€ sono possibili.
non so dove sei stato negli ultimi due mesi ma le big navi sono in costante calo da mo' come è fisiologico che sia .... vedo 6900XTXH asrock a poco più di 700€ nuove, 6800XT (best bang for the buck) quais un centinaio sotto.....certo se aspetti una 6900XT a 499 auguri....
Lo so benissimo che sono scese, ma penso che i prezzi siano ancora abbastanza alti considerando che sono schede a fine vita
Puntavo a qualcosa di più modesto tipo 6650 o 6750
C'è una slide sul sito AMD che non è stata mostrata nella presentazione:
https://i.imgur.com/YGXijaN.jpg
Strano che non si è vista questa slide. In CoD, RDR2 e Assassin's Creed le prestazioni sembrano molto vicine alla 4090, mentre God of War in effetti stona (problema di ottimizzazione?). Sui titoli in raytracing non credo ci siano sorprese.
Strano che non si è vista questa slide. In CoD, RDR2 e Assassin's Creed le prestazioni sembrano molto vicine alla 4090, mentre God of War in effetti stona (problema di ottimizzazione?). Sui titoli in raytracing non credo ci siano sorprese.COD e AC sono molto favorevoli ad AMD, specialmente COD. In modern warfare 2 una 6800XT è allo stesso livello della 3090Ti. RD2 e God of war sono più "neutrali". Nei titoli RT non c'è storia ma quello è chiaro.
narniagreen
04-11-2022, 16:44
Una ipotetica 7700XT non dovrebbe essere troppo distante dalla 6900 e magari 500€ sono possibili.
7700XT sarà al pari di 6950XT, in 200watt.
Spero anche io max 500€, penso Q2 2023.
6700XT +50% perf/watt → 66%*1.5= 99%
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/relative-performance_2560-1440.png
Marckus87
04-11-2022, 18:46
quindi ricapitolando potremo avere:
4090 100% 2500$
7900XTX 92-95% 1200-1500$
7900XT 82-85% 1100-1300$
4080 78-82% 1200-1500$
Mi piacerebbe molto vedere un salto prestazionale simile (+40/50% gen su gen) anche per le eventuali 7800, 7700 e 7600.
In particolare una 7600 + 50 % starebbe sopra ad una 3080 liscia. A meno di 350 euro e se si riesce a tenere tranquillamente sotto i 200 watt massimi sarebbe un gran bell'acquisto...Ma anche una simil 3070 a 250 euro non sarebbe male.
https://www.tomshw.it/hardware/amd-radeon-rx-7900-xtx-ecco-un-primo-confronto-con-rtx-4090/
https://www.tomshw.it/hardware/amd-radeon-rx-7900-xtx-ecco-un-primo-confronto-con-rtx-4090/
Intendi: occhio a non pubblicare idiozie come fa tomshw?
Perché lo vede subito anche un cieco che AMD non ha mai lasciato intendere che la 7900XTX possa pareggiare la 4090 in metro exodus con RT su high.
Marckus87
04-11-2022, 23:36
Intendi: occhio a non pubblicare idiozie come fa tomshw?
Perché lo vede subito anche un cieco che AMD non ha mai lasciato intendere che la 7900XTX possa pareggiare la 4090 in metro exodus con RT su high.
eh:confused: guarda che quelle slide sono in raster nativo mica con raytracing
Si ma adesso Azor salta fuori dicendo che la 7900 xtx compete con la rtx 4080 :wtf: non sembrerebbe a giudicare dalle specifiche tecniche (e dal nome), l'unica cosa che le accomuna è il prezzo. Eppure la 6900xt la confrontavano con la 3090.
Nvidia avrà anche fatto un lancio disastroso, ma loro evidentemente non vogliono essere da meno :asd:
Marckus87
05-11-2022, 00:25
Si ma adesso Azor salta fuori dicendo che la 7900 xtx compete con la rtx 4080 :wtf: non sembrerebbe a giudicare dalle specifiche tecniche (e dal nome), l'unica cosa che le accomuna è il prezzo. Eppure la 6900xt la confrontavano con la 3090.
Nvidia avrà anche fatto un lancio disastroso, ma loro evidentemente non vogliono essere da meno :asd:
la 6900xt in realtà è vicinissima alla 3090 :read:
https://i.ibb.co/hWDpMpc/perfomancevga.png
eh:confused: guarda che quelle slide sono in raster nativo mica con raytracing
In Metro c'è scritto RT.
Si ma adesso Azor salta fuori dicendo che la 7900 xtx compete con la rtx 4080 :wtf: non sembrerebbe a giudicare dalle specifiche tecniche (e dal nome), l'unica cosa che le accomuna è il prezzo. Eppure la 6900xt la confrontavano con la 3090.
Nvidia avrà anche fatto un lancio disastroso, ma loro evidentemente non vogliono essere da meno :asd:
Perché dovrebbero preoccuparsi loro di specificare ufficialmente con cosa compete?
Hanno mostrato costo, consumi e prestazioni, ora sta al mercato decidere con cosa compete.
Azor dice che come prezzo compete con la 4080 e che non ha senso confrontarla con una scheda che costa il 60% in più, ma se poi come prestazioni non è tanto lontana è chiaro che ci compete non passandola in performance ma rendendo poco conveniente la spesa in più magari.
Belle, buon rapporto qualità prezzo...ma cosa ci devo far girare ? Plague tale ? :)
Ale55andr0
06-11-2022, 18:15
Intendi: occhio a non pubblicare idiozie come fa tomshw?
Perché lo vede subito anche un cieco che AMD non ha mai lasciato intendere che la 7900XTX possa pareggiare la 4090 in metro exodus con RT su high.
cmq l'RT di Metro su high non è CP2077 su psyco :D
cmq l'RT di Metro su high non è CP2077 su psyco :D
Si ma non credo proprio che la 7900xtx pareggi la 4090.
Poi se mi sbaglio ben venga, ma ci credo quando lo vedo testato da siti affidabili.
Ale55andr0
07-11-2022, 07:50
Si ma non credo proprio che la 7900xtx pareggi la 4090.
Poi se mi sbaglio ben venga, ma ci credo quando lo vedo testato da siti affidabili.
Ah su quello concordo in pieno, ci sarà uno stacco bello netto purtroppo ;)
Redazione, voi l'avete già in prova, quando vi scade l'NDA?
ninja750
07-11-2022, 11:20
la 6900xt in realtà è vicinissima alla 3090
quel grafico (c'è scritto) è su 4K
per quello i grafici postati qui sopra 1440p differiscono di un po
karlaghaton
07-11-2022, 11:53
@Tuvok-LuR- non penso che all'improvviso siano tutti diventati nemici di Nvidia (qualcuno lo è, ma in fondo lo è sempre stato) il connettore 12VHPWR crea un problema (per alcuni reale per altri immaginario) a molti utenti: dover cambiare Alimentatore o affidarsi a connettori posticci che fondono! Magari con la 4080 Nvidia mostrerà un prodotto con il giusto equilibrio tra costo prestazioni consumi, e tutti saremo felici e certamente la maggioranza tornerà ad incensarla (si sa noi cambiamo idea come le bandiere al vento), del resto i discorsi sulla 7900 (idem per 4080) sono per adesso una bella speranza da verificare tra una mesata con test reali
Mi spiegate in raster cosa si intende?gracias.
ninja750
08-11-2022, 15:57
il male
bagnino89
08-11-2022, 16:04
il male
:asd:
nickname88
11-11-2022, 12:41
Se questi numeri verranno confermati, o comunque sia anche solo "AVVICINATI", allora AMD in questo giro ha vinto alla grande.
Addirittura poi sembra che usciranno assieme, è da un decennio oramai che non succedeva.
La 4070/80-12GB con un misero +18% sulla 3080 attuale non è in grado di competere.
Idem la 4080-16GB con un altrettanto misero +38% sulla 3080 liscia non va da nessuna parte con una 7900XT a 900$ .....
Se questi numeri verranno confermati, o comunque sia anche solo "AVVICINATI", allora AMD in questo giro ha vinto alla grande.
Addirittura poi sembra che usciranno assieme, è da un decennio oramai che non succedeva.
La 4070/80-12GB con un misero +18% sulla 3080 attuale non è in grado di competere.
Idem la 4080-16GB con un altrettanto misero +38% sulla 3080 liscia non va da nessuna parte con una 7900XT a 900$ .....
Tutto vero...in raster però.
DLSS 3 volenti o nolenti, che ne siamo fan o no, è un gran valore aggiunto.
StylezZz`
11-11-2022, 14:31
Tutto vero...in raster però.
DLSS 3 volenti o nolenti, che ne siamo fan o no, è un gran valore aggiunto.
Vedremo come si comporterà FSR 3.
nickname88
11-11-2022, 14:54
Tutto vero...in raster però.
DLSS 3 volenti o nolenti, che ne siamo fan o no, è un gran valore aggiunto.L'upscaling va bene ma non tale da doverlo applicare sempre.
Il RT basta andare su opzioni/impostazioni del gioco e settarli su DISABLE e problema risolto.
Ti ricordo che bisogna far girare i titoli UE5 a 60fps quì, non c'è ancora sufficiente spazio per il RT.
Tutto vero...in raster però.
DLSS 3 volenti o nolenti, che ne siamo fan o no, è un gran valore aggiunto.
Dal momento che c'è FSR 3 no.
nickname88
11-11-2022, 15:53
Dal momento che c'è FSR 3 no.
FSR è una tecnica vecchia, non è basata sul DL.
Non basta aggiungergli la gestione dell'AA come fatto nella versione 2.
FSR è una tecnica vecchia, non è basata sul DL.
Non basta aggiungergli la gestione dell'AA come fatto nella versione 2.
Se il risultato è uguale frega poco di come viene raggiunto.
CraigMarduk
24-11-2022, 15:18
Sovraprezzate, come le Geforce.
nickname88
26-11-2022, 16:27
Se il risultato è uguale frega poco di come viene raggiunto.Non è uguale infatti.
Questo DLSS 3 ha aggiunto un bel boost a livello prestazionale a parità di immagine.
Non è uguale infatti.
Questo DLSS 3 ha aggiunto un bel boost a livello prestazionale a parità di immagine.
Mi piace come tutti stiano considerando DLSS 3 la soluzione salvifica a pari qualità di immagine senza averlo ancora toccato con mano, quando nelle anteprime ne usciva male soprattutto dove serviva (ovvero quando gli fps iniziali son pochi). Siamo passati in pochi anni da "che schifo l'upcaling" a "evviva, abbiamo i frame generati dal nulla e non calcolati interamente grazie ai vettori di movimento", che per definizione più sono più ti permettono un regen preciso (ma se son tanti fai già tanti FPS quindi non ti servirebbero ulteriori frame al secondo...). Lo stesso vale per FSR3, sia ben chiaro.
Ma va bene, DLSS3 salverà il mondo ed è la tecnologia migliore di sempre senza alcuna controindicazione, aspettando DLSS4 ovviamente.
nickname88
26-11-2022, 20:28
Mi piace come tutti stiano considerando DLSS 3 la soluzione salvifica a pari qualità di immagine senza averlo ancora toccato con mano
Le recensioni già ci sono da un pezzo.
A livello qualitativo sono convinto di avere ottime probabilità di azzeccarci quando penso che NON sia inferiore alla versione 2. :rolleyes:
Non è uguale infatti.
Questo DLSS 3 ha aggiunto un bel boost a livello prestazionale a parità di immagine.
Il DLSS 3 c'è in 3 giochi, non è uscito il FSR 3 ma tu hai già la risposta :asd:
Alodesign
30-11-2022, 14:35
Ma di qualità diversa
Gold!
Utente bannato?
Utente veramente nuovo?
Utonto?
:confused:
Ale55andr0
30-11-2022, 15:45
Le recensioni già ci sono da un pezzo.
A livello qualitativo sono convinto di avere ottime probabilità di azzeccarci quando penso che NON sia inferiore alla versione 2. :rolleyes:
come io sono convinto che se si vede come la 2 allora è una m...
Le recensioni già ci sono da un pezzo.
A livello qualitativo sono convinto di avere ottime probabilità di azzeccarci quando penso che NON sia inferiore alla versione 2. :rolleyes:
Il DLSS 3 con o senza frame generation? No, perché quella abbassa la qualità di immagine ed è stato già dimostrato, ed è la parte che fa boostare di più gli FPS. Oltre ad essere utilizzabile bene solo con fps già alti, quindi utilità relativa.
Senza Frame Generation sì, probabilmente DLSS3 andrà meglio del 2, come d'altra parte il 2 stesso è stato migliorato versione dopo versione, ma il boost prestazionale non è quello decantato e miracoloso. Ripeto: stesso discorso varrà con FSR3.
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.