PDA

View Full Version : AMD Radeon RX 7900 XTX e 7900 XT recensione: GeForce RTX 4080 accerchiata


Redazione di Hardware Upg
12-12-2022, 15:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/6438/amd-radeon-rx-7900-xtx-e-7900-xt-recensione-geforce-rtx-4080-accerchiata_index.html

Radeon RX 7900 XTX e Radeon RX 7900 XT sono le prime schede video di AMD basate sull'architettura RDNA 3. Le due soluzioni top di gamma, messe alla prova, raggiungono prestazioni che accerchiano la GeForce RTX 4080 nella classica rasterizzazione, mentre rimangono indietro con il ray tracing. Ottimo il comparto delle porte e l'ingombro dei modelli di riferimento, così come il prezzo inferiore a quello della concorrenza. Basterà a trasformarle in un successo?

Click sul link per visualizzare l'articolo.

OrazioOC
12-12-2022, 15:09
Si può sintetizzare con:

Raster: 4090>7900 xtx>4080>7900 xt>3090 TI
Raster+rt: 4090>4080>7900 xt> 3090 TI> 7900 xt

Comunque miglior rapporto prezzo/prestazioni della diretta concorrente 4080, ma tolto quello.:rolleyes:

Max Power
12-12-2022, 15:10
Ci siamo

ciolla2005
12-12-2022, 15:11
Eccole

Supr3mo
12-12-2022, 15:14
segnalo piccolo refuso:

ma non ci vuole molto a capire che la RTX 4080 costa un po' di quel che dovrebbe.


stasera me la rileggo con calma

RaZoR93
12-12-2022, 15:21
Si può sintetizzare con:

Raster: 4090>7900 xtx>4080>7900 xt>3090 TI
Raster+rt: 4090>4080>7900 xt> 3090 TI> 7900 xt

Comunque miglior rapporto prezzo/prestazioni della diretta concorrente 4080, ma tolto quello.:rolleyes:Ma neanche purtroppo. Il rapporto prezzo performance va a farsi benedire una volta prese in considerazioni le performance con ray tracing, che sarà sempre più usato. Inoltre consuma di più.
Purtroppo RDNA3 appare alquanto mediocre, il che è un serio problema considerando i prezzi assurdi di Nvidia.

Gello
12-12-2022, 15:22
Con la 4090 sui 2k, queste a 700 euri sarebbero anche comprabili :rotfl:

OrazioOC
12-12-2022, 15:25
Ma neanche purtroppo. Il rapporto prezzo performance va a farsi benedire una volta prese in considerazioni le performance con ray tracing, che sarà sempre più usato. Inoltre consuma di più.
Purtroppo RDNA3 appare alquanto mediocre, il che è un serio problema considerando i prezzi assurdi di Nvidia.
In raytracing ha "catchato" ampere, la vedo come una simil 3090/ti, e non mi aspetto che da questo punto di vista nvidia con AD104 possa offrire chissà cosa in più.

Rimane uno step dietro a nvidia a parità di fascia, innegabile lato raytracing, ma per il resto non è una scheda raffazzonata alla buona come si era visto in passato nelle high end amd tipo le vega e le fury. E' più una rtx 3080 vs rx 6900 xt atto secondo...

bagnino89
12-12-2022, 15:25
Abbastanza FAIL.

Aspettative altissime nei vari thread rossi (prenderà la 4090 in raster!!!), e invece, come al solito...

Manolo De Agostini
12-12-2022, 15:25
segnalo piccolo refuso:

Sistemato, ti ringrazio. :)

FrancoBit
12-12-2022, 15:25
Purtroppo son sedute, in RT incollate alla sedia direi. Peccato perchè manca un competitor serio in RT. In raster ci si potrebbe anche accontentare. Il rammarico è che pur costando meno di Nvidia non sono prezzate a dovere, troppo costose.

Ale55andr0
12-12-2022, 15:26
Abbastanza FAIL.

Aspettative altissime nei vari thread rossi (prenderà la 3090 in raster!!!), e invece, come al solito...

infatti la 3090 in raster la massacrano :asd: nella foga del tifo hai scritto male XD

bagnino89
12-12-2022, 15:29
infatti la 3090 in raster la massacrano :asd: nella foga del tifo hai scritto male XD

Ho corretto, lol :asd:

Ale55andr0
12-12-2022, 15:30
In raytracing ha "catchato" ampere, la vedo come una simil 3090/ti.


in realtà oggi "RT" = CP2077, e non prendono nemmeno la 3090ti purtroppo in quello, ma magari essendo al lancio via driver fra qualche mese qualcosina la predono. Era impensabile pareggiare o avvicinare le 4000 in RT, anche se certamente auspicabile

silvanotrevi
12-12-2022, 15:34
Bellissime schede! Grande Amd :)

In molti giochi la 7900xtx fa mangiare la polvere persino alla rtx 4090!

Adesso per Nvidia non esistono più scuse per non abbattere i prezzi surreali della inutile 4080. Venderla a più di 1000 eur dopo gennaio 2023 sarebbe un suicidio per Nvidia

OrazioOC
12-12-2022, 15:36
in realtà oggi "RT" = CP2077, e non prendono nemmeno la 3090ti purtroppo in quello, ma magari essendo al lancio via driver fra qualche mese qualcosina la predono. Era impensabile pareggiare o avvicinare le 4000 in RT, anche se certamente auspicabile

Nelle review che ho visto(Guru3d, questa, HwUnboxed, techpowerup) è lì con la 3090 ti, a seconda del tipo di bench(gioco o sintetico) sono entrambe a pochi fps l'una dall'altra.

Il problema vero, è che sia 7900 xtx che 3090 ti non ne hanno quanto la 4080 in RT, figuriamoci la 4090. :asd:

demon77
12-12-2022, 15:42
Abbastanza FAIL.

Aspettative altissime nei vari thread rossi (prenderà la 4090 in raster!!!), e invece, come al solito...

Adesso.. "FAIL" mi pare una bestemmia.
Le ritengo assolutamente valide e prestanti.

Di certo bisogna dire che la controparte Nvidia è avvantaggiata con prestazioni superiori in ambito RT ed ha anche vantaggi con applicativi che si appoggiano su CUDA.

Quindi NON sono distanti ma Nvidia tutto sommato è meglio.
Per rubare mercato AMD deve essere furba con il PREZZO.

Ale55andr0
12-12-2022, 15:42
Bellissime schede! Grande Amd :)

In molti giochi la 7900xtx fa mangiare la polvere persino alla rtx 4090!

Adesso per Nvidia non esistono più scuse per non abbattere i prezzi surreali della inutile 4080. Venderla a più di 1000 eur dopo gennaio 2023 sarebbe un suicidio per Nvidia

ognuno vede il mondo a modo suo :asd:

DMD
12-12-2022, 15:43
Non ho visto ancora i test per video editing con daVinci Resole e Premiere, dove i cuda core e la Vram vengono sfruttati.
Attendo i benchmark su Puget System.

Ale55andr0
12-12-2022, 15:46
Nelle review che ho visto(Guru3d, questa, HwUnboxed, techpowerup) è lì con la 3090 ti, a seconda del tipo di bench(gioco o sintetico) sono entrambe a pochi fps l'una dall'altra.

Il problema vero, è che sia 7900 xtx che 3090 ti non ne hanno quanto la 4080 in RT, figuriamoci la 4090. :asd:

in RT per quanto di pochi fps è dietro in CP2077 che è quello a oggi con l'RT più "significativo" a livello di potenza richiesta, cacchio ma almeno pareggiala 1 a 1 la top...precedente, bastano anche pochissimi frame a "deludere" se almeno il sindacale non lo fai. La scheda non è male eh, bel prodotto, ma costa ancora qwalche bigliettone di troppo. Certo la 4080 anche più di "qualche" XD.

A ogni modo oggi per chi ha una fetecchia per aggiornare prendere una 6000/3000 usata è la cosa migliore, altro che gpu da 1200 a salire....

bonzoxxx
12-12-2022, 15:46
Da quello che ho visto in raster vanno di brutto, in RT putroppo soffrono tanto e questo è un peccato ma me lo aspettavo.

Se la 7900XTX fosse a 999€ in Italia credo non ce ne sarebbe per nessuno, a sto prezzo perde un pochino di appeal ma tra connettori standard, temperature ottime e dimensioni umane credo che AMD abbia fatto un ottimo lavoro.

Ale55andr0
12-12-2022, 15:47
Per rubare mercato AMD deve essere furba con il PREZZO.


e ma non lo è stata, o almeno non del tutto, deve limare ancora qualcosa, e nvidia minimo 300 sulla 80....

demon77
12-12-2022, 15:54
e ma non lo è stata, o almeno non del tutto, deve limare ancora qualcosa, e nvidia minimo 300 sulla 80....

Diciamo che per un confronto vero su sta cosa c'è da guardare poi gli street price effettivi.

silvanotrevi
12-12-2022, 16:10
Per la redazione di hwupgrade:

Scusate ma perché avete fatto il test usando come processore il ryzen 7950x? Schede video nuove e potenti come le 4090, 4080 e 7900xtx non scalano bene in 4k con quel procio limitato in ambito gaming. Dovevate usare un i9 13900k per avere risultati i più obiettivi possibili. Persino un 13600k va meglio di un 7950x con quelle GPU top gamma :doh:

nickname88
12-12-2022, 16:27
Mezza delusione, rispetto a quanto mostrato dalle loro slide è PALESEMENTE INDIETRO !

La 7900XTX supera di poco la 4080 solamente nel raster ma consuma ben di più !
La 7900XT invece consuma comunque di più della 4080 che è assurdo e va meno !

Come efficienza la 4080 è davanti a tutte !
ASSURDO !

https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/energy-efficiency.png

Dove è finito quel +50% di efficienza ? Ma va va !


Addirittura mediamente la XT se la giocherebbe con la vecchia 3090Ti !!! Questo vuol dire che anche la "penosa" 4070Ti col bus da 192bit dovrebbe batterla.

https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/relative-performance_3840-2160.png

Fab1980@@
12-12-2022, 16:37
Schede video inutili visto che la generazione di Nvdia la serie 3000 con il ray tracing va meglio di queste se consideriamo che Nvdia dovrà abbassare i prezzi delle vecchie per vendere le nuove nn c’è partita.ad esempio ho acquistato una Pny 3080 12 gb a 910 euro leggendo questa recensione la mia va meglio scalda meno e costa meno quando arriverà fx3.0 si può valutare ma il problema è che anche le schede video Nvdia possono utilizzarlo

nickname88
12-12-2022, 16:50
Da quello che ho visto in raster vanno di brutto, in RT putroppo soffrono tanto e questo è un peccato ma me lo aspettavo.

Se la 7900XTX fosse a 999€ in Italia credo non ce ne sarebbe per nessuno, a sto prezzo perde un pochino di appeal ma tra connettori standard, temperature ottime e dimensioni umane credo che AMD abbia fatto un ottimo lavoro.
La XTX non sta ufficialmente a 1099$ come la 4080 ?
Non capisco perchè poi lo street price dovrebbe essere inferiore.
Visto che sarà anche meno reperibile.

Alodesign
12-12-2022, 17:03
Se non cala pesantemente di prezzo la 4080, andrò di XTX.

nickname88
12-12-2022, 17:04
Se non cala pesantemente di prezzo la 4080, andrò di XTX.
Che costa poco meno, va solo il 4% meglio in raster, prende scoppole in RT e consuma molto di più ! Bella scelta ! :asd:

Alodesign
12-12-2022, 17:06
Che costa uguale, va solo il 4% meglio in raster, prende scoppole in RT e consuma molto di più ! Bella scelta ! :asd:

Manda il sito dello store con i prezzi. Grazie.
(non scherzo, così valuto).

nickname88
12-12-2022, 17:09
Manda il sito dello store con i prezzi. Grazie.
(non scherzo, così valuto).Il listino ufficiale non è uguale per entrambe le schede ?
La AMD comunque non c'è ancora nel mercato nè con gli AIB nè le reference sullo store AMD, ma non vedo perchè lo street price dovrebbe cambiare per 2 prodotti che dovrebbero avere lo stesso prezzo.

Phopho
12-12-2022, 17:09
La XTX sta ufficialmente a 1099$ come la 4080.
Non capisco perchè poi lo street price dovrebbe essere inferiore.
Visto che sarà anche meno reperibile.

quei 100$ in più che ti sei inventato sono la tua provvigione?

pierpox
12-12-2022, 17:11
Mi sarebbe piaciuto vedere anche qualche test con software di produttività,ma alla fine credo che il problema di queste 7900 non siano tanto le prestazioni sin qui viste,ma la disponibilità di queste e il prezzo delle versioni custom delle varie ASUS,GIGABYTE ecc. che temo non sarà troppo distante da quello attuale delle 4080.Tuttavia sono proprio curioso di vedere ,tra un anno, quante vendite avranno realizzato schede da oltre 1000 euro...i tempi delle vacche grasse (mining) sono ormai ampiamente alle spalle!

nickname88
12-12-2022, 17:12
quei 100$ in più che ti sei inventato sono la tua provvigione?
Hai ragione, ho fatto confusione, la XTX starebbe a 999$, non 1099.
Pardon

Alodesign
12-12-2022, 17:13
Il listino ufficiale è di 1099$ per entrambe le schede.
La AMD non c'è ancora nel mercato nè con gli AIB nè le reference sullo store AMD, ma non vedo perchè lo street price dovrebbe cambiare per 2 prodotti che dovrebbero avere lo stesso prezzo.

Beh allora attendo di vedere anche il prezzo AMD finale.

Phopho
12-12-2022, 17:17
Hai ragione, ho fatto confusione, la XTX starebbe a 999$, non 1099.
Pardon

;)

supertigrotto
12-12-2022, 17:23
A leggere i commenti mi viene da sorridere,sembra che AMD dovrà chiudere fra una settimana perché tutti,compreranno un 4090.
Mi sembra un forum di motociclisti che se non hanno una Ducati Desmosedici D16RR NCR M16 e la gente non ce l'ha e non se la compra ,sono tutti sfig...,tutti piloti sul dritto ma sulle strade di montagna,poi si ritrovano pagliati anche da uno scooterone Keeway.
Mi pare che sono buone anche BMW RR ,Aprilia RSV4 etc,che,per il 99% delle persone,sono di gran lunga oltre le loro capacità.
Le schede video 7000 sono ottime schede con belle prestazioni,in RT vanno meno ma non vedo perché bisogna denigrarle così tanto......

GabrySP
12-12-2022, 17:27
probabilmente il peggior FAIL informatico dai tempi di Willamette

Giacchetta di Pelle venderà le 40xx a prezzi da strozzino fino al 2025

ninja750
12-12-2022, 17:31
probabilmente il peggior FAIL informatico dai tempi di Willamette

peggio di vega e prescott?

ningen
12-12-2022, 17:39
Non capisco i commenti di chi è deluso, ma queste performance sono esattamente quello che mi aspettavo.
In raster la 7900XTX si posiziona tra la 4090 e la 4080.
In raster la 7900XT va poco meno rispetto ad una 4080.
Con il Raytracing sono entrambe indietro di una generazione.
Tutto come previsto.
Considerando il prezzo più basso, anche se sempre fin troppo alto per quel che mi riguarda, secondo me AMD è preferibile, anche se in Raytracing è praticamente indietro di una generazione.

demon77
12-12-2022, 17:49
A leggere i commenti mi viene da sorridere,sembra che AMD dovrà chiudere fra una settimana perché tutti,compreranno un 4090.

Se ti aspetti una recensione di GPU o CPU di punta senza annessa una guerra di religione con al suo interno una schiera di fanatici di vari livelli è evidente che non sei mai stato qui. :D

Comnuque, guerra di religione obbigatoria a parte, si stanno valutando i pro e i contro dei modelli di punta delle due fazioni. E' ovvio che si parli di quelli.
Poi è altrettanto ovvio che uno si comprerà la scheda più adatta alle sue tasche ed alle sue necessità.. che non vuol dire sarà un modello di punta.

Sicuramente avere una gamma di prodotto che sia COMPETITIVA conta. Ma conta parecchio.

Kyo72
12-12-2022, 17:50
Ottime veramente. Non avranno la capacita' in RT delle NVidia, ma e' cosi' importante vedere le carrozzerie dei carri armati o delle macchine lucide come specchi oltre i 100 fps? Sopratutto non ci sono connettori proprietari "flambe'". Percio' se gli scalper me lo permettono la xtx la prendero' sicuramente.

Mars95
12-12-2022, 18:00
in realtà oggi "RT" = CP2077, e non prendono nemmeno la 3090ti purtroppo in quello, ma magari essendo al lancio via driver fra qualche mese qualcosina la predono. Era impensabile pareggiare o avvicinare le 4000 in RT, anche se certamente auspicabile

Eccerto, cherry picking a manetta :asd:

Non capisco i commenti di chi è deluso, ma queste performance sono esattamente quello che mi aspettavo.
In raster la 7900XTX si posiziona tra la 4090 e la 4080.
In raster la 7900XT va poco meno rispetto ad una 4080.
Con il Raytracing sono entrambe indietro di una generazione.
Tutto come previsto.
Considerando il prezzo più basso, anche se sempre fin troppo alto per quel che mi riguarda, secondo me AMD è preferibile, anche se in Raytracing è praticamente indietro di una generazione.

Sono i commenti di chi ha già preso una 4090/4080 e deve convincersi di non aver buttato nel cesso 700/800 euro :asd:

La realtà è che a parità di prezzo (quando usciranno le 4070 e simili) le radeon avranno le stesse performance in RT e andranno parecchio di più in RT.

Pinzo
12-12-2022, 18:03
tra un pò le schede madri saranno le GPu e il resto verrà installato nel pcb della scheda video....devo dire la verità sono un pò troppo enormi per i miei gusti....

fabryx73
12-12-2022, 18:24
Adesso.. "FAIL" mi pare una bestemmia.
Le ritengo assolutamente valide e prestanti.

Di certo bisogna dire che la controparte Nvidia è avvantaggiata con prestazioni superiori in ambito RT ed ha anche vantaggi con applicativi che si appoggiano su CUDA.

Quindi NON sono distanti ma Nvidia tutto sommato è meglio.
Per rubare mercato AMD deve essere furba con il PREZZO.

commento perfetto.....si potrebbe chiudere il thread.... :D
peccato che ,purtroppo,il futuro sia il RT ,cha piaccia o no.....si può parlarne fino alla morte ma quello è il futuro....
e altresì peccato ,perchè speravo che in RT queste nuove bestie (sono ottime,inutile girarci....) di AMD andassero un pò di più....sono dietro di una generazione ,inutile girarci....

la 4080 è sovraprezzata ,uno che ha i soldi si deve prendere la 4090 senza se e senza ma.... mentre nella scorsa generazione si poteva accontentarsi di una 3080 (come ho fatto io), però queste AMD sono sovraprezzate di un 10% .....non tanto ma......

Marckus87
12-12-2022, 18:47
Che costa poco meno, va solo il 4% meglio in raster, prende scoppole in RT e consuma molto di più ! Bella scelta ! :asd:

4%? in 1080p in 4k è il 10%, se come misura valgono i 1080p a quella risoluzione allora la XT va solo 1% in meno e costa almeno 300€ in meno della 4080, e la xtx va il 3% in meno della 4090 e costa 1000€ in meno :read:

argez
12-12-2022, 19:04
commento perfetto.....si potrebbe chiudere il thread.... :D
peccato che ,purtroppo,il futuro sia il RT ,cha piaccia o no.....si può parlarne fino alla morte ma quello è il futuro....
e altresì peccato ,perchè speravo che in RT queste nuove bestie (sono ottime,inutile girarci....) di AMD andassero un pò di più....sono dietro di una generazione ,inutile girarci....

la 4080 è sovraprezzata ,uno che ha i soldi si deve prendere la 4090 senza se e senza ma.... mentre nella scorsa generazione si poteva accontentarsi di una 3080 (come ho fatto io), però queste AMD sono sovraprezzate di un 10% .....non tanto ma......

Eh sì, in pratica è il commento un po' di tutti, prezzo troppo alto. A 800-850 dollari massimo erano posizionate giuste, ovviamente restando sempre su prezzi da follia gonfiati dal cartello amd/nvidia.

mircocatta
12-12-2022, 19:07
Ma neanche purtroppo. Il rapporto prezzo performance va a farsi benedire una volta prese in considerazioni le performance con ray tracing, che sarà sempre più usato. Inoltre consuma di più.
Purtroppo RDNA3 appare alquanto mediocre, il che è un serio problema considerando i prezzi assurdi di Nvidia.

va che in RT il rapporto prezzo prestazione è pari a quello della 4080 (20% di prestazione e 20% di prezzo) , in raster , per il prezzo che ha, la saluta


detto ciò, c'erano effettivamente tutt'altre aspettative nell'aria, sarà che siamo rimasti talmente delusi dai prezzi delle 4000 che ci aspettavamo un'amd alla ribalta, ma a conti fatti il prodotto è piu che valido.
va in RT tanto quanto una 3090ti (scheda di aprile 2022 tanto decantata come mostruosa in RT), i commenti che parlano di scheda caccapupù in raytracing fanno scappare da ridere*, parliamo pur sempre della 3a scheda piu veloce in rt attualmente sul mercato.

*no, non venitemi a dire "ma ampere è di 2 anni fa, andare come quelle è fail!!111!!", perchè i videogiochi sono fermi da 2 anni e forse più (tanto che la 4090 è stata spesso chiamata come vga game limited), ergo: una vga di 2 anni fa va bene oggi come allora.

Pandemio
12-12-2022, 19:09
Non ne venderà nemmeno una,abbiamo tutti super monitor 4k,super hardware e giochiamo solo in RT,a dettagli super altissimi, fail!
Per non parlare di quei FPS in meno in tutto il resto .
Hanno detto che se la giocava con la 4080 ma hanno mentito per non fare figure .
Da buttare.

Darkless
12-12-2022, 19:10
tra un pò le schede madri saranno le GPu e il resto verrà installato nel pcb della scheda video....devo dire la verità sono un pò troppo enormi per i miei gusti....

e son parecchio più piccole delle Nvidia eh :asd:

Oramai siamo nella fase in cui non badano e dimensioni e consumi per puntare sulla potenza cruda per esser davanti all'avversario nei benchmark. Fra un po', probabilmente quando non si dovranno più inventare un'IA per farti giocare col RT senza far fondere una scheda video, si tornerà a studiare meglio l'ottimizzazione di tutto, dimensioni comprese.

mircocatta
12-12-2022, 19:20
Hai ragione, ho fatto confusione, la XTX starebbe a 999$, non 1099.
Pardon

e la 4080 sta a 1199$, capisco che la voglia che hai di spalare merda su amd è tanta, ma conteniamoci suvvia :asd:
Che costa poco meno, va solo il 4% meglio in raster, prende scoppole in RT e consuma molto di più ! Bella scelta ! :asd:

non costa poco meno, costa il 17% in meno, va il 19% in meno in RT (quindi praticamente uguale come performance RT/costo, che è quello che dovrebbe principalmente interessare ad un ACQUIRENTE) e va di più in raster (quindi, sul 90% dei giochi o più, un rapporto prezzo/performance migliore)

pace se consuma di più, tanto abbiamo comprato tutti ampere che oltre che a costare di più consumava anche di piu della concorrenza, no? oggi non vale più il concetto? strano

RaZoR93
12-12-2022, 19:54
va che in RT il rapporto prezzo prestazione è pari a quello della 4080 (20% di prestazione e 20% di prezzo) , in raster , per il prezzo che ha, la salutaGuarda i giochi che fanno uso intenso di ray tracing come cyberpunk o dying light 2. La 4080 ha un vantaggio che arriva oltre il 50% in certi bench.

nickname88
12-12-2022, 19:58
4%? in 1080p in 4k è il 10%, se come misura valgono i 1080p a quella risoluzione allora la XT va solo 1% in meno e costa almeno 300€ in meno della 4080, e la xtx va il 3% in meno della 4090 e costa 1000€ in meno :read:No 4% in 4K
https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/relative-performance_3840-2160.png



pace se consuma di più, tanto abbiamo comprato tutti ampere che oltre che a costare di più consumava anche di piu della concorrenza, no? oggi non vale più il concetto? stranoLa 7900XT sbaglio o dichiara 300W ? Ossia come le 6800XT e 6900XT eppure consuma più anche della vecchia 3080.

Quindi non è il fatto che consumino, ma che consumino più di Nvidia quando si ci aspettava l'esatto contrario, specie quando si va a dichiarare lo stesso TDP delle vecchie e soprattutto quando performi meno.

carloUba
12-12-2022, 20:10
Ma sul serio qui dentro qualcuno (esclusi i nati nel 1985) pensa sul serio che Nvidia non conosca le performance di AMD e viceversa ben prima delle varie presentazioni annunci?
Non è che prezzano a cazzo di cane eh.
AMD ha fatto le giuste schede che si infilano per prezzo e prestazioni dove nvidia aveva dei buchi.
Che poi mi gioco le palle che quel buco di fascia nvidia lo abbia lasciato ad AMD per accordi tra le società.
Però ph, scannatevi pure.
Illudetevi che uscirà una scheda che a parità di prestazioni costi la metà dell'altra.
Questi sono un cartello.

Ale55andr0
12-12-2022, 20:27
Eccerto, cherry picking a manetta :asd:




no, titolo dov'è applicato in modo "tassante" per valutare DAVVERO chi ha muscoli in rt, ma capisco che il riferimento doveva essere un titolo con rt finto sulle ombre, nevvero?

In rt è dietro. Un bel tot. Punto. In più consuma di più, quindi manco più l'efficienza. La scheda in se non è certo "il male", ma il prezzo non ha senso (men che meno la xt assolutamente incagabile), come quello della 80 del resto. Jcoso e Lisa se le installino nello slot pci-e... che divide la chiappa destra dalla sinistra

Darkless
12-12-2022, 20:34
Non è che prezzano a cazzo di cane eh.

Bhè non saprei come altro definirla la scelta di prezzo della 4080 :asd:

kellone
12-12-2022, 20:54
Io sono contento che almeno in 1440p le nuove AMD possano finalmente gestire decentemente il ray tracing.
Si amplia il bacino di utenza e di conseguenza l'interesse ad inserirlo da parte delle SH.

Pandemio
12-12-2022, 21:02
L RT è il futuro,se lo dite voi,che puoi sempre scegliere di usare o no ...vero sono un po' indietro,nessuno aveva pensato il contrario è sempre stato così.
Costano anche dalle 300 alle 400 euro in meno,non sono briciole .
Potrebbe avere un buon margine di miglioramento passando dal 5 al 3 nanometri,chissà .
Quei pochi frame in meno in qualche ambito fan la differenza solo per i confronti .
Poi vabbè chi pretende il massimo si compri Nvidia e stop .

StylezZz`
12-12-2022, 21:43
Per farla breve non è cambiato nulla...stessa situazione della gen precedente con prestazioni in raster comparabili, ma AMD indietro in RT anche se adesso è in zona ampere...sono fiducioso nei driver, sicuramente miglioreranno.

Io sono contento che almeno in 1440p le nuove AMD possano finalmente gestire decentemente il ray tracing.
Si amplia il bacino di utenza e di conseguenza l'interesse ad inserirlo da parte delle SH.

Si, per me andrebbe bene (e miglioreranno con FSR3) anche se la 7900 non è il mio target, bisognerà vedere come si comporteranno le 7700/7800, perchè se avranno le stesse prestazioni della mia 3070 in rt, le lascio volentieri sullo scaffale :rolleyes:

OrazioOC
12-12-2022, 21:45
Si, per me andrebbe bene (e miglioreranno con FSR3) anche se la 7900 non è il mio target, bisognerà vedere come si comporteranno le 7700/7800, perchè se avranno le stesse prestazioni della mia 3070 in rt, le lascio volentieri sullo scaffale :rolleyes:
Per la 7700 xt se la faranno con navi 33 non è neanche un brutto risultato arrivare alla 3070/2080 ti in RT, meno se si tratta della 7800 xt con navi 32.:rolleyes:

StylezZz`
12-12-2022, 21:50
Per la 7700 xt se la faranno con navi 33 non è neanche un brutto risultato arrivare alla 3070/2080 ti in RT, meno se si tratta della 7800 xt con navi 32.:rolleyes:

Sicuramente, però nel mio caso non avrebbe molto senso come aggiornamento.

Pozhar
12-12-2022, 21:51
Aldilà di tutto, prezzi ormai assurdi. Oggi ci vogliono circa 500€ per prendere una scheda di fascia media. Se va bene. Altrimenti fascia ancora più al di sotto.
Bah... Vorrei capire che strada si stia prendendo, ma soprattutto dove si voglia arrivare.
Io penso che ad avere inciso su questi ultimi prezzi, tra i tanti fattori, ci metterei dentro anche l'ormai cambio di strategia: fare chipponi che dovrebbero posizionarsi nella fascia prosumer, che oggi invece ce li ritroviamo nella fascia consumer, però con prezzi di riferimento non appartenente a quest' ultima.
In primis attuata da Nvidia che ha fatto d'apripista togliendo il brand Titan.

ningen
12-12-2022, 22:22
Sono i commenti di chi ha già preso una 4090/4080 e deve convincersi di non aver buttato nel cesso 700/800 euro :asd:

La realtà è che a parità di prezzo (quando usciranno le 4070 e simili) le radeon avranno le stesse performance in RT e andranno parecchio di più in RT.

Semmai avranno le stesse prestazioni in RT e andrano di più in Raster.
Hai scritto due volte RT, ma suppongo intendevi Raster.
Comunque riconfermo che sono 2 schede validissime e sarebbero ancora più valide se i prezzi non fossero gonfiati, sia per quel che riguarda Nvidia, sia per quel che riguarda AMD.
La fascia medio alta a quanto la prezzeranno? 800-900 euro? Pura follia!

ghiltanas
13-12-2022, 08:14
Ottime schede, però i consumi sono saliti troppo e i prezzi molto male (non folli come Nvidia).
Sono contento di aver preso la 6700xt a buon prezzo, la fascia media avrà dei prezzi proibitivi almeno per un po'

Zappz
13-12-2022, 08:49
Vi state tutti dimenticando del DLSS, ma è sempre di più un aspetto da tenere in considerazione... Se in RT stanno parecchio dietro, con il dlss non c'è storia.

Alekx
13-12-2022, 08:58
Senza RT e' un mostro di potenza, un po come la serie 6xxxx, con l'RT hanno migliorato ma di poco ripsetto alla precedente serie e qui mi aspettavo qualche cosa in piu'.

Non so perche' hanno voluto continuare a non potenziare questa tecnologia, forse l' FSR 3 potrebbe darci una risposta visto che gia' FSR 2.1 su CP2077 funziona bene e fa guadagnare molto in RT...... vedremo.

Sono dell'avviso che il costo finale fara' la differenza, almeno per come la vedo io e avere un risparmio di 400/500 euro non e' cosa da poco.

Cmq vedendo in altri siti tipo guru..... il divario in RT in FHD non c'e' rispetto alla 4090 c'e' poco in 1440 e' piu' marcato in 4k.

In alcuni giochi tipo CP2077 e' poca la differenza ma il Watch legion addirittura la 7900 sta avanti alla 4090. con RT ON ULTRA

Qualcosa non quadra.

bonzoxxx
13-12-2022, 09:10
Senza RT e' un mostro di potenza, un po come la serie 6xxxx, con l'RT hanno migliorato ma di poco ripsetto alla precedente serie e qui mi aspettavo qualche cosa in piu'.

Non so perche' hanno voluto continuare a non potenziare questa tecnologia, forse l' FSR 3 potrebbe darci una risposta visto che gia' FSR 2.1 su CP2077 funziona bene e fa guadagnare molto in RT...... vedremo.

Sono dell'avviso che il costo finale fara' la differenza, almeno per come la vedo io e avere un risparmio di 400/500 euro non e' cosa da poco.

Cmq vedendo in altri siti tipo guru..... il divario in RT in FHD non c'e' rispetto alla 4090 c'e' poco in 1440 e' piu' marcato in 4k.

In alcuni giochi tipo CP2077 e' poca la differenza ma il Watch legion addirittura la 7900 sta avanti alla 4090. con RT ON ULTRA

Può essere che con l'affinamento driver qualcosa si recupera?

Però Guru3D testa con un 5950X, per carità ottima CPU ma secondo me per tirare al massimo ste GPU serve o un AM5 top, un 5800X3D o un intel serie 13 questo per avere il massimo possibile.

ninja750
13-12-2022, 09:16
con il dlss non c'è storia.

mai sentito parlare di FSR1/2/3 e XeSS?

Alekx
13-12-2022, 09:24
Può essere che con l'affinamento driver qualcosa si recupera?

Affinamento ??? Non voglio passare per l'avvocato difensore di AMD ma......

I test sono stati pubblicati ieri quindi presumo che i test siano stati fatti un po a cazzum o con driver di 1 mese fa (?).

Se pubblichi una cosa del genere dovresti avere almeno gli ultimi driver aggiornati e non quelli del DVD.

Quindi leggendo altre rece tipo il guru le cose sono un po' diverse diverse (a 1440 cambia poco e' piu' marcata la differenza in 4k)

Esempio CP2077
" We test in ultra-quality modus with Raytacing shadows and reflections enabled.*"

https://i.ibb.co/Wg7PwvJ/2gu.png (https://ibb.co/D5m8yf2)

https://i.ibb.co/pK3JYgw/1hw.png (https://imgbb.com/)

Qui addirittura sta sopra la 4090

https://i.ibb.co/D8r1L8S/2g.png (https://ibb.co/WPVHsPY)

https://i.ibb.co/NVbV4Gb/3g.png (https://ibb.co/Pm0mSV0)


Quindi a sto punto tirare le conclusioni oggi mi sembra alquanto inopportuno per queste GPU.

Zappz
13-12-2022, 09:29
mai sentito parlare di FSR1/2/3 e XeSS?

Si, c'è anche il confronto nella recensione ed appunto non c'è storia.

bonzoxxx
13-12-2022, 09:32
Affinamento ??? Non voglio passare per l'avvocato difensore di AMD ma......

I test sono stati pubblicati ieri quindi presumo che i test siano stati fatti un po a cazzum o con driver di 1 mese fa (?).

Se pubblichi una cosa del genere dovresti avere almeno gli ultimi driver aggiornati e non quelli del DVD.

Quindi leggendo altre rece tipo il guru le cose sono un po' diverse diverse (a 1440 cambia poco e' piu' marcata la differenza in 4k)

Quindi a sto punto tirare le conclusioni oggi mi sembra alquanto inopportuno per queste GPU.

Sto leggendo la rece di Guru ed in effetti la situazione è ben diversa da quella riportata da HWup ma credo sia per via della CPU, in fullHD sia 4080 che soprattutto 4090 non vengono proprio sfruttate

RaZoR93
13-12-2022, 09:34
Affinamento ??? Non voglio passare per l'avvocato difensore di AMD ma......

I test sono stati pubblicati ieri quindi presumo che i test siano stati fatti un po a cazzum o con driver di 1 mese fa (?).

Se pubblichi una cosa del genere dovresti avere almeno gli ultimi driver aggiornati e non quelli del DVD.

Quindi leggendo altre rece tipo il guru le cose sono un po' diverse diverse (a 1440 cambia poco e' piu' marcata la differenza in 4k)

Esempio CP2077
" We test in ultra-quality modus with Raytacing shadows and reflections enabled.*"

Quindi a sto punto tirare le conclusioni oggi mi sembra alquanto inopportuno per queste GPU.Guru3D sembra aver fatto i test con solo riflessi e ombre in ray tracing, mentre questa recensione usa l'opzione "ultra" RT, che include global illumination, che è ovviamente l'effetto grafico più significativo, ma anche usando solo quelle opzioni la 7900XTX è meno performante di una 3090Ti in 4k.
I test a 1080p lasciano il tempo che trovano sinceramente.

Si, c'è anche il confronto nella recensione ed appunto non c'è storia.DLSS è l'opzione migliore, ma in generale FSR2.2 è molto simile nei giochi più recenti.

Alekx
13-12-2022, 09:49
I test a 1080p lasciano il tempo che trovano sinceramente.


Se lo dici tu..... da STEAM

"Uno dei periodici sondaggi svolti da Steam ha rivelato un dato impietoso: solo l'1,74% degli utenti gioca su una risoluzione 4K nativa. Non avevamo dubbi che il segmento prevalente fosse quello del Full HD (64,58%), ma un dato così basso per il 4K era difficile da prevedere."

La statistica e' di qualche tempo fa, oggi forse staranno al 2% (?). Probabilmente Farai parte di quel corposo 2%.

Sicuramente invece il FHD e' quello che dovresti vedere perche' e' la risoluzione video che si sta utilizzando di piu'.

E aggiungo come venditore anche di HW posso assicurarti che nei listini le case stanno puntando su pannelli FHD a 165Hz o 240HZ, qualche cosa su 2K, in 4k la scelta e' a dir poco imbarazzante.

RaZoR93
13-12-2022, 09:50
Se lo dici tu..... da STEAM

"Uno dei periodici sondaggi svolti da Steam ha rivelato un dato impietoso: solo l'1,74% degli utenti gioca su una risoluzione 4K nativa. Non avevamo dubbi che il segmento prevalente fosse quello del Full HD (64,58%), ma un dato così basso per il 4K era difficile da prevedere."

Probabilmente Farai poarte di quel corposo 1,74%.

Sicuramente invece il FHD e' quello che dovresti vedere.Si perchè qualcuno compra una 7900XTX a 1200-1300€ per giocare in full HD.
Stando a Steam la GPU più usata è la GTX 1650.

Alekx
13-12-2022, 09:57
Si perchè qualcuno compra una 7900XTX a 1200-1300€ per giocare in full HD.
Stando a Steam la GPU più usata è la GTX 1650.

Ma la realta' e' questa.......... ho modificato il post precedente per scrivere che:

"E aggiungo come venditore anche di HW posso assicurarti che nei listini le case stanno puntando su pannelli FHD a 165Hz o 240HZ, qualche cosa su 2K, in 4k la scelta e' a dir poco imbarazzante."

Poi puoi sceglire di rimanere a giocare in FHD anche con una GTX 1650 da 4GB, ci giochi e' ma scordati di attivre anche l'antialaising a 0,5x (che non esiste).

Zappz
13-12-2022, 09:58
DLSS è l'opzione migliore, ma in generale FSR2.2 è molto simile nei giochi più recenti.

Però se guardiamo il grafico di cyberpunk c'è una bella differenza, la 4090 fa 150 frame, la 4080 ne fa 100 e la 7900 xtx solo 50.

RaZoR93
13-12-2022, 10:01
Però se guardiamo il grafico di cyberpunk c'è una bella differenza, la 4090 fa 150 frame, la 4080 ne fa 100 e la 7900 xtx solo 50.Si ma questo perché la base di partenza è molto più bassa. Io mi riferivo alla qualità dell'upscaling che è ora relativamente simile.

Ma la realta' e' questa.......... ho modificato il post precedente per scrivere che:

"E aggiungo come venditore anche di HW posso assicurarti che nei listini le case stanno puntando su pannelli FHD a 165Hz o 240HZ, qualche cosa su 2K, in 4k la scelta e' a dir poco imbarazzante."

Poi puoi sceglire di rimanere a giocare in FHD anche con una GTX 1650 da 4GB, ci giochi e' ma scordati di attivre anche l'antialaising a 0,5x (che non esiste).Il punto è che se si vuole paragonare le performance di GPU top gamma si utilizzano risoluzioni sensate che mettano alla prova le GPU.
Moltissime review hanno mostrato che una 4090 è CPU limited non solo a 1080p, ma in molti titoli persino a 1440 e pure in 4k in rare occasioni!
Che senso ha fare i paragoni a 1080p quando è assolutamente evidente che le differenze di performance vengono appiattite per mancanza di scaling...
Oltre a questo, come ho già detto, quasi nessuno compra gpu da 1000+€ per giocare a 1080p. Non ha alcun senso e l'unico motivo per cui esistono pannelli da 200+ hz è per titoli competitivi / e sport, che queste gpu fanno funzionare a 500+ Fps come Counter Strike.

Tarkovshooter
13-12-2022, 10:08
A parte le pippate da fanboy, (voi siete quelli che mi portano il pc da riparare perché non si accende ed avete un bel lc power e una 3080 per giocare in fhd a 60 fps), il raytracing oggi non esiste, punto. Non ci sono i giochi e dove e'implementato definirlo rozzo é un eufemismo. Un domani forse sará lo standard (si tipo phys-x ma siete prepubescenti e non ricordate) e in caso in quel glorioso domani le 3xxx e 4xxx saranno more or less spazzatura. Ergo comprare oggi pagando salata una tecnologia che pare non affermarsi, per NON poterla utilizzare domani é GENIALE. La mia 6900xt ha un totale di 30 secondi di raytracing in cyberpunk poi gira in raster come il 99% degli altri utenti, ivi compresi voi. Quindi se la motivazione per comprare nvidia e'il raytracing suggerisco ripasso della materia gaming, se invece e'fanboysmo prego, pagate pure di piú per andare meno. che sicuramente in nvidia ne terranno conto, lol. Dai bimbi facevo il tecnico informatico quando eravate embrioni e le cose che leggo qui sopra non le pensavo manco col pannolone.

Alekx
13-12-2022, 10:15
Si ma questo perché la base di partenza è molto più bassa. Io mi riferivo alla qualità dell'upscaling che è ora relativamente simile.

Il punto è che se si vuole paragonare le performance di GPU top gamma si utilizzano risoluzioni sensate che mettano alla prova le GPU.
Moltissime review hanno mostrato che una 4090 è CPU limited non solo a 1080p, ma in molti titoli persino a 1440 e pure in 4k in rare occasioni!
Che senso ha fare i paragoni a 1080p quando è assolutamente evidente che le differenze di performance vengono appiattite per mancanza di scaling...
Oltre a questo, come ho già detto, quasi nessuno compra gpu da 1000+€ per giocare a 1080p. Non ha alcun senso e l'unico motivo per cui esistono pannelli da 200+ hz è per titoli competitivi / e sport, che queste gpu fanno funzionare a 500+ Fps come Counter Strike.


La vediamo diversamente.

Il paragone lo dvi fare per capire finoi a quanto puoi spingerti con la risoluzioine con schede top di gamma, ma oggi pensi realemtne che chi compra una 4080 (non vogliko pensare a una 4090) o un 7900XTX ci giochi in 4k o 2k ?

Il fatto e' che le case stanno puntando a schermi sempre piu' brillanti IPS con bassi MS e Hz sempre maggiori partendo dal FHD e posso assicurarti che i costi sono piu' alti del classici FHD.

Tarkovshooter
13-12-2022, 10:19
ps nessuno di questi giocattoli lo tirate ad aria stabilmente (occato obv) al 100% quindi o + 800 euri per un liquido custom (obv double radiator che siamo oltre i 600w teorici con una cpu degna e quindi molto probabilmente anche un bel case da 2/300 euri in abbinata). di cosa stiamo parlando quindi? 3000 eurini per non potere giocare in RT... beh dai GENIALE, lo ripeto perché il mondo ha bisogno di voi! Nvidia ha bisogno di voi.

fabryx73
13-12-2022, 10:23
Dai bimbi facevo il tecnico informatico quando eravate embrioni e le cose che leggo qui sopra non le pensavo manco col pannolone.

Grazie del commento...e grazie soprattutto per esserti iscritto e postato il primo messaggio per offendere noi bimbi con 20 anni di post su HW....:muro:

Vul
13-12-2022, 10:24
Mi fanno ridere i commenti, a meno che non vadano il 20% piu di Nvidia costando 50% in meno a quanto pare "AMD costa troppo".

Ci sono tre cose che non mi "piacciono" di questa gpu:

- i consumi: erano pessimi per le gpu Nvidia ma qui non siamo migliorati tantissimo

- i nomi: XT e XTX sono sigle che confondono. Okay, il chip e' lo stesso e non hanno fatto la porcata classica di Nvidia dove un chip diverso viene mascherato solo dal cambio di ram, ma sono comunque nomi che confondono e non mi piacciono, si poteva fare meglio

- la differenza di prezzo tra xt e xtx e' piuttosto piccola, al punto dove la xtx e' piu efficiente da un punto di vista di prestazioni/prezzo rispetto alla sorella piu piccola?

Le prestazioni sono ottime, c'e` poco da discuterne, sia in raster che sorprendentemente in rt, anche se li sono meno competitive ovviamente di Nvidia, ma comunque ottime prestazioni. Ma le gpu non mi convincono fino alla fine, devo comunque pesare prezzo, consumi e calore e sinceramente a me queste gpu giganti cosi' esose energeticamente non piacciono e non piaceranno mai.

E' il caso che i produttori di gpu si sveglino lato efficienza energetica, vedere gpu da 300/400/500/600 watt nel 2022 e' semplicemente fuori luogo.

Spero la fascia media sara' piu promettente.

AceGranger
13-12-2022, 10:36
Affinamento ??? Non voglio passare per l'avvocato difensore di AMD ma......

I test sono stati pubblicati ieri quindi presumo che i test siano stati fatti un po a cazzum o con driver di 1 mese fa (?).

Se pubblichi una cosa del genere dovresti avere almeno gli ultimi driver aggiornati e non quelli del DVD.

Quindi leggendo altre rece tipo il guru le cose sono un po' diverse diverse (a 1440 cambia poco e' piu' marcata la differenza in 4k)

Esempio CP2077
" We test in ultra-quality modus with Raytacing shadows and reflections enabled.*"

CUT
Quindi a sto punto tirare le conclusioni oggi mi sembra alquanto inopportuno per queste GPU.

in 4K vedi i limiti veri di potenza della GPU, in FHD vedi i limiti software o dell'utilizzo della CPU.

mi sembra chiaro che se prendi bench dove 4 GPU stanno a pari fps quando dovrebbero avere differenze marcate ( e intendo rimanendo in casa nVidia fra 3090 3090Ti 4080 e 4090 ) c'è qualche cosa che non va nel frame cap superiore con quel game engine o con lo sfruttamento CPU-GPU.

e una cosa da tenere conto con queste GPU , soprattutto con la 4090, che i bench dovrebbero essere fatti con la migliore CPU, perchè è ormai chiaro che il salto di queste GPU è stato superiore rispetto al passato e anche le CPU perdono fps man mano che si sale.

StylezZz`
13-12-2022, 10:38
Si perchè qualcuno compra una 7900XTX a 1200-1300€ per giocare in full HD

Purtroppo si :asd:

freeagle
13-12-2022, 10:41
Come sempre, secondo me è tutto relativo: un prodotto può essere "win" o "fail" in relazione alla concorrenza e al costo. Abbassa del 20% il prezzo della RX7900XTX e ottieni un "best buy" assoluto e totale; riduci invece quello della 4080 e a quel punto, la 7900 non ha più senso... E così via.

Proviamo a considerare i vari punti:
- RDNA3 costa tanto.
- consuma tanto
- è indietro in RT rispetto ad AdaLovelace.

Quindi è un fallimento? No! Perché contemporaneamente:
- costa meno
- va di più (rispetto a una 4080 in raster)
- non ti costringe a cambiare alimentatore o usare connettori proprietari
- non ti costringe a cambiare case perché ha ancora dimensioni "umane"
- pur essendo indietro in RT, comunque prende una 3090Ti e fino a un annetto fa, sarebbe stato impensabile vedere una Radeon stare dietro a una RTX (a quella RTX!) in ray tracing.
- comunque la si rigiri, il salto rispetto a RDNA2 c'è stato ed è consistente.

Poi, è ovvio che se domani Jensen prende un colpo di sole e decide di tagliare i prezzi di AdaLovelace del 50%, le RX7900 diventano dei costosissimi fermacarte senza più alcun senso...
Ma QUI e ORA, ritengo che AMD ci abbia azzeccato, forse non del tutto ma in buona parte.

Vul
13-12-2022, 10:42
Purtroppo si :asd:

Beh anche la 4090 mano a mano che lanceranno giochi nuovi e nuove gpu diventera' tecnicamente una scheda da 1440p e 1080p, cosi come e' gia' successo per la 2080ti o la 3090, piano piano la gpu che compri oggi non basta piu.

Vul
13-12-2022, 10:44
Come sempre, secondo me è tutto relativo: un prodotto può essere "win" o "fail" in relazione alla concorrenza e al costo. Abbassa del 20% il prezzo della RX7900XTX e ottieni un "best buy" assoluto e totale; riduci invece quello della 4080 e a quel punto, la 7900 non ha più senso... E così via.

Proviamo a considerare i vari punti:
- RDNA3 costa tanto.
- consuma tanto
- è indietro in RT rispetto ad AdaLovelace.

Quindi è un fallimento? No! Perché contemporaneamente:
- costa meno
- va di più (rispetto a una 4080 in raster)
- non ti costringe a cambiare alimentatore o usare connettori proprietari
- non ti costringe a cambiare case perché ha ancora dimensioni "umane"
- pur essendo indietro in RT, comunque prende una 3090Ti e fino a un annetto fa, sarebbe stato impensabile vedere una Radeon stare dietro a una RTX (a QUELLA RTX!) in ray tracing.
- comunque la si rigiri, il salto rispetto a RDNA2 c'è stato ed è consistente.

Poi, è ovvio che se domani Jenson prende un colpo di sole e decide di tagliare i prezzi di AdaLovelace del 50%, le RX7900 diventano dei costosissimi fermacarte senza più alcun senso...
Ma QUI e ORA, ritengo che AMD ci abbia azzeccato, forse non del tutto ma in buona parte.

AMD ha piu margine per tagliare i prezzi di Nvidia: i die sono sensibilmente piu piccoli.

In ogni caso nessuno dei due tagliera' i prezzi di molto, le gpu vanno a ruba al momento anche a questi prezzi, perche' mai dovrebbero farsi grosse guerre sui prezzi?

Tarkovshooter
13-12-2022, 10:52
@Fabrix dai via siamo seri, nessun insulto ho solo fatto presente che state dibattendo sul nulla cosmico, una tecnologia in beta, senza garanzie di reale implementazione estensiva, adducendolo anche a ragione per acquistare il prodotto. Poi se ti sembra normale ok, io ho buttato li dei dati di fatto non soggetti ad interpretazioni, (scienza appunto: pochi giochi, poco supporto, sovrapprezzo monstre ed infine stat. generali sull utilizzo dei prodotti, utenza nulla sullo specifico prodotto; dati che puoi facilmente reperire o che dovresti sapere se segui il mercato) se non ti piace evidentemente derivi nel fanboysmo e quindi non abbiamo proprio nulla da dirci. Poi scrivere per 20 anni non vuole dire capirci, io potrei scrivere per 20 anni sul sito della gazzetta ma non mi rende edotto per quato riguarda la ginnastica ritmica, ci vuole lo studio e la pratica roba diversa.

freeagle
13-12-2022, 10:54
AMD ha piu margine per tagliare i prezzi di Nvidia: i die sono sensibilmente piu piccoli.

In ogni caso nessuno dei due tagliera' i prezzi di molto, le gpu vanno a ruba al momento anche a questi prezzi, perche' mai dovrebbero farsi grosse guerre sui prezzi?

eh, magari facessero la guerra sui prezzi... :rolleyes:
Il concetto che volevo esprimere era semplicemente che tutto è relativo a quanto costano l'una e l'altra: entrambe le architetture sembrano molto valide, alla fine venderà di più chi saprà bilanciare meglio il posizionamento rispetto alla concorrenza.

al135
13-12-2022, 11:11
maronn' che schifezza, ma poi in alcuni giochi ok va un 30% in meno di una 4090 e altri meno della metà in 4k e in 2k ? mah

majinbu7
13-12-2022, 11:24
Mi fanno ridere i commenti, a meno che non vadano il 20% piu di Nvidia costando 50% in meno a quanto pare "AMD costa troppo".

Ci sono tre cose che non mi "piacciono" di questa gpu:

- i consumi: erano pessimi per le gpu Nvidia ma qui non siamo migliorati tantissimo

- i nomi: XT e XTX sono sigle che confondono. Okay, il chip e' lo stesso e non hanno fatto la porcata classica di Nvidia dove un chip diverso viene mascherato solo dal cambio di ram, ma sono comunque nomi che confondono e non mi piacciono, si poteva fare meglio

- la differenza di prezzo tra xt e xtx e' piuttosto piccola, al punto dove la xtx e' piu efficiente da un punto di vista di prestazioni/prezzo rispetto alla sorella piu piccola?

Le prestazioni sono ottime, c'e` poco da discuterne, sia in raster che sorprendentemente in rt, anche se li sono meno competitive ovviamente di Nvidia, ma comunque ottime prestazioni. Ma le gpu non mi convincono fino alla fine, devo comunque pesare prezzo, consumi e calore e sinceramente a me queste gpu giganti cosi' esose energeticamente non piacciono e non piaceranno mai.

E' il caso che i produttori di gpu si sveglino lato efficienza energetica, vedere gpu da 300/400/500/600 watt nel 2022 e' semplicemente fuori luogo.

Spero la fascia media sara' piu promettente.

Il punto è proprio questo, se l'evoluzione in ambito VGA dev'essere maggiori consumi e prezzi sempre maggiori , se le possono anche tenere....e si rischia che il gaming su PC con la strada intrapresa poco alla volta rimarrà per pochi :mad:

Speravo in questa generazione di vga AMD/NVIDIA per cambiare la mia 2070 super (visto che la precedente non mi ha convinto per nulla, ed era impossibile acquistarla ai prezzi di listino), ma sinceramente non mi va di spendere chissà quale cifra per avere si prestazioni migliori ma anche consumi ben superiori :muro:

RaZoR93
13-12-2022, 12:24
A parte le pippate da fanboy, (voi siete quelli che mi portano il pc da riparare perché non si accende ed avete un bel lc power e una 3080 per giocare in fhd a 60 fps), il raytracing oggi non esiste, punto. Non ci sono i giochi e dove e'implementato definirlo rozzo é un eufemismo. Un domani forse sará lo standard (si tipo phys-x ma siete prepubescenti e non ricordate) e in caso in quel glorioso domani le 3xxx e 4xxx saranno more or less spazzatura. Ergo comprare oggi pagando salata una tecnologia che pare non affermarsi, per NON poterla utilizzare domani é GENIALE. La mia 6900xt ha un totale di 30 secondi di raytracing in cyberpunk poi gira in raster come il 99% degli altri utenti, ivi compresi voi. Quindi se la motivazione per comprare nvidia e'il raytracing suggerisco ripasso della materia gaming, se invece e'fanboysmo prego, pagate pure di piú per andare meno. che sicuramente in nvidia ne terranno conto, lol. Dai bimbi facevo il tecnico informatico quando eravate embrioni e le cose che leggo qui sopra non le pensavo manco col pannolone.Il ray tracing è presente in molti titoli, anche se soltanto un numero limitato di giochi ne fa un buon uso come Cyberpunk e Dying Light 2.
A parte questo il ray tracing è usato di default da Lumen, il nuovo sistema di illuminazione dinamico dell'Unreal Engine 5.
Fra l'altro è una tecnologia agnostica che non c'entra nulla con una soluzione proprietaria come era PhysX.

La vediamo diversamente.

Il paragone lo dvi fare per capire finoi a quanto puoi spingerti con la risoluzioine con schede top di gamma, ma oggi pensi realemtne che chi compra una 4080 (non vogliko pensare a una 4090) o un 7900XTX ci giochi in 4k o 2k ?

Il fatto e' che le case stanno puntando a schermi sempre piu' brillanti IPS con bassi MS e Hz sempre maggiori partendo dal FHD e posso assicurarti che i costi sono piu' alti del classici FHD.Eh.. si?! Io ho un display 1440p da 10 anni ormai, non è tecnologia aliena e lo "sweet spot" è probabilmente 1440p a 144hz al giorno d'oggi. Per favore non facciamo finta che esistano solo i 1080p.
Poi se vuoi usare i risultati di benchmark a 1080p per giungere a conclusioni sbagliate sulle relative performance delle schede grafiche, fai pure.
Molti canali youtube o siti web non pubblicano neanche più i risultati a 1080p per gpu di fascia alta.

nickname88
13-12-2022, 12:33
- non ti costringe a cambiare alimentatore o usare connettori proprietari
- non ti costringe a cambiare case perché ha ancora dimensioni "umane"

Non tutte le custom hanno il connettore proprietario e quelle che lo hanno forniscono l'adattatore, non devi cambiare l'alimentatore.
Le dimensioni sono le stesse di Ampere, anzi la 4080 consuma e scalda meno della 3080 liscia e di entrambe le 7900, quindi le dimensioni dei dissipatori sono le medesime per tutte queste schede citate.

Korn
13-12-2022, 12:33
Come sempre, secondo me è tutto relativo: un prodotto può essere "win" o "fail" in relazione alla concorrenza e al costo. Abbassa del 20% il prezzo della RX7900XTX e ottieni un "best buy" assoluto e totale; riduci invece quello della 4080 e a quel punto, la 7900 non ha più senso... E così via.

Proviamo a considerare i vari punti:
- RDNA3 costa tanto.
- consuma tanto
- è indietro in RT rispetto ad AdaLovelace.

Quindi è un fallimento? No! Perché contemporaneamente:
- costa meno
- va di più (rispetto a una 4080 in raster)
- non ti costringe a cambiare alimentatore o usare connettori proprietari
- non ti costringe a cambiare case perché ha ancora dimensioni "umane"
- pur essendo indietro in RT, comunque prende una 3090Ti e fino a un annetto fa, sarebbe stato impensabile vedere una Radeon stare dietro a una RTX (a QUELLA RTX!) in ray tracing.
- comunque la si rigiri, il salto rispetto a RDNA2 c'è stato ed è consistente.

Poi, è ovvio che se domani Jenson prende un colpo di sole e decide di tagliare i prezzi di AdaLovelace del 50%, le RX7900 diventano dei costosissimi fermacarte senza più alcun senso...
Ma QUI e ORA, ritengo che AMD ci abbia azzeccato, forse non del tutto ma in buona parte.
opione condivisibile, purtroppo i fanboysmi avvelenano un po' tutto

nickname88
13-12-2022, 12:39
AMD ha piu margine per tagliare i prezzi di Nvidia: i die sono sensibilmente piu piccoli.
NAVI-31 :
Full Size = 495.5 mm²
Die Size = 306 mm²
https://www.techpowerup.com/gpu-specs/radeon-rx-7900-xt.c3912

AD103 :
Die Size = 379 mm²
https://www.techpowerup.com/gpu-specs/geforce-rtx-4080.c3888


Il die AMD da solo è un po' più piccolo ma addizionato alla cache è ben più grande di AD103 .

Alekx
13-12-2022, 13:07
Il ray tracing è presente in molti titoli, anche se soltanto un numero limitato di giochi ne fa un buon uso come Cyberpunk e Dying Light 2.
A parte questo il ray tracing è usato di default da Lumen, il nuovo sistema di illuminazione dinamico dell'Unreal Engine 5.
Fra l'altro è una tecnologia agnostica che non c'entra nulla con una soluzione proprietaria come era PhysX.

Eh.. si?! Io ho un display 1440p da 10 anni ormai, non è tecnologia aliena e lo "sweet spot" è probabilmente 1440p a 144hz al giorno d'oggi. Per favore non facciamo finta che esistano solo i 1080p.
Poi se vuoi usare i risultati di benchmark a 1080p per giungere a conclusioni sbagliate sulle relative performance delle schede grafiche, fai pure.
Molti canali youtube o siti web non pubblicano neanche più i risultati a 1080p per gpu di fascia alta.

Scusa di quali conclusioni sbagliate parli ? Ripeto io non voglio difendere nessuno ma ci sono differenze tra siti tra l'FHD e il 1440p e da li traggo conclusioni.

Per il resto guardo a quello che e' il mercato ad oggi, ma tu continui a mettere la testa sotto terra, e il mercato dice che l' FHD e' la risuluzione piu' utilizzata.

Questo non vuol dire che persone come te che giocano gia' a 1440p da 10 anni, forse 10 anni fa rappresentavi l' 1% di chi utilizzava quella risoluzione, e che ad oggi ancora NON rappresenta la maggioranza.

Da come la vedo io i Benck vanno presi per quello che ti serve e per darti un indicazione di massima su come spendere i soldi in casoi di upgrade, in teoria.

Perche' poi nella realta' troverai tanti che giocheranno in FHD, ma attenzione tutto maxato, RT compreso con le 4090 dove un 7900XTX se la gioca alla pari spendendo la meta', alcuni in 1440p e pochissimi in 4k dove la 4090 diventa fondamentale.

Quindi io non vedo nulla di particolare in quello che ho scritto e riportato su grafici che erano diversi.

Che poi AMD abbia ancora da lavorare non c'e' dubbio, ma leggere FAIL in molti commenti mi sembra un'esagerazione se non si ragiona a 360°.

Quindi come ha scritto freeagle le cose vanno viste sotto moleplici aspetti.

Chiaramente e' una visione personale di un 51 enne che vive nel mondo dell'informatica dal 1979 (ATARI 2600).:D

Ale55andr0
13-12-2022, 13:50
AMD ha piu margine per tagliare i prezzi di Nvidia: i die sono sensibilmente piu piccoli.

In ogni caso nessuno dei due tagliera' i prezzi di molto, le gpu vanno a ruba al momento anche a questi prezzi, perche' mai dovrebbero farsi grosse guerre sui prezzi?

errato.

RaZoR93
13-12-2022, 13:52
Scusa di quali conclusioni sbagliate parli ? Ripeto io non voglio difendere nessuno ma ci sono differenze tra siti tra l'FHD e il 1440p e da li traggo conclusioni.

Per il resto guardo a quello che e' il mercato ad oggi, ma tu continui a mettere la testa sotto terra, e il mercato dice che l' FHD e' la risuluzione piu' utilizzata.

Questo non vuol dire che persone come te che giocano gia' a 1440p da 10 anni, forse 10 anni fa rappresentavi l' 1% di chi utilizzava quella risoluzione, e che ad oggi ancora NON rappresenta la maggioranza.Ok.
La 3090 dopo 2 anni sul mercato ha uno share dello 0,5% su Steam. E la 6900XT è allo 0,2%.
è altamente probabile che giocatori disposti a spendere 1000-2000€ per una scheda video abbiano in buona parte un display 4k (2,6% su steam).
Chi pensi che giochi a 4k? chi ha una 3060? Stiamo parlando di prodotti di fascia enthusiast qui.

Zappz
13-12-2022, 13:54
Scusa di quali conclusioni sbagliate parli ? Ripeto io non voglio difendere nessuno ma ci sono differenze tra siti tra l'FHD e il 1440p e da li traggo conclusioni.

Per il resto guardo a quello che e' il mercato ad oggi, ma tu continui a mettere la testa sotto terra, e il mercato dice che l' FHD e' la risuluzione piu' utilizzata.

Questo non vuol dire che persone come te che giocano gia' a 1440p da 10 anni, forse 10 anni fa rappresentavi l' 1% di chi utilizzava quella risoluzione, e che ad oggi ancora NON rappresenta la maggioranza.

Da come la vedo io i Benck vanno presi per quello che ti serve e per darti un indicazione di massima su come spendere i soldi in casoi di upgrade, in teoria.

Perche' poi nella realta' troverai tanti che giocheranno in FHD, ma attenzione tutto maxato, RT compreso con le 4090 dove un 7900XTX se la gioca alla pari spendendo la meta', alcuni in 1440p e pochissimi in 4k dove la 4090 diventa fondamentale.

Quindi io non vedo nulla di particolare in quello che ho scritto e riportato su grafici che erano diversi.

Che poi AMD abbia ancora da lavorare non c'e' dubbio, ma leggere FAIL in molti commenti mi sembra un'esagerazione se non si ragiona a 360°.

Quindi come ha scritto freeagle le cose vanno viste sotto moleplici aspetti.

Chiaramente e' una visione personale di un 51 enne che vive nel mondo dell'informatica dal 1979 (ATARI 2600).:D

Ti stanno dicendo che per valutare le prestazioni di una scheda non ha senso provarla in 1080 perché i risultati sono troppo falsati dal resto dell'hardware, perciò è giusto usare il 4k per capire se una scheda è più potente dell'altra. Poi se il mondo è pieno di gente che gioca con i pixel grandi come una casa non importa.

lzeppelin
13-12-2022, 14:11
Me le aspettavo queste performance,
mai sperato nel miracolo di AMD in questa generazione che affronta un desing del chip tutto nuovo e deve essere sistemato bene.
Non mi aspettavo invece un msrp così basso, in linea con la precedente generazione, avrei scommesso 1299.
Tifoserie a parte non ho dubbi nel consigliare una XT al 95% delle persone, la si troverà a meno di 1000 euro tra non molto ci scommeto.
Unica perplessità, AMD ha già pronta una revisione molto importante di questo rdna3, con la cache impilata...quindi, quando la presenteranno? Che ciclo di vità avranno queste XT e XTX lisce? mmm...

bonzoxxx
13-12-2022, 14:19
Ti stanno dicendo che per valutare le prestazioni di una scheda non ha senso provarla in 1080 perché i risultati sono troppo falsati dal resto dell'hardware, perciò è giusto usare il 4k per capire se una scheda è più potente dell'altra. Poi se il mondo è pieno di gente che gioca con i pixel grandi come una casa non importa.

Secondo me il fullHD è importante perchè se uno gioca in fullHD deve rendersi conto come va una GPU: poi che comprare una 4090 per usarla in fullHD è follia pura non ci sono dubbi cosi come lo è spendere 2000€ per una GPU ma si ritorna sempre al punto che ognuno spende come meglio crede.

Vul
13-12-2022, 14:21
maronn' che schifezza, ma poi in alcuni giochi ok va un 30% in meno di una 4090 e altri meno della metà in 4k e in 2k ? mah

Oste, com'e` il vino?

Vul
13-12-2022, 14:24
Lo sai vero che le ultime 4 schede uscite (4090, 4080, 7900XTX e 7900XT) sono le schede con la MIGLIOR efficienza energetica? Almeno prendendo in considerazione la suite di giochi testati da TPU.

Fonte: https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/38.html

Io mi chiedo perché postate senza prima informarvi.

Ancora con questa panzanata?

Non me ne importa nulla se passano da 300 a 400 watt incrementando le prestazioni del 50%. Ci mancherebbe, e' un processo produttivo migliore, ma lato architetturale quand'e` che si decidono di investire in gpu che offrano ottime prestazioni a consumi bassissimi?

argez
13-12-2022, 14:30
Ti stanno dicendo che per valutare le prestazioni di una scheda non ha senso provarla in 1080 perché i risultati sono troppo falsati dal resto dell'hardware, perciò è giusto usare il 4k per capire se una scheda è più potente dell'altra. Poi se il mondo è pieno di gente che gioca con i pixel grandi come una casa non importa.

Il mondo è pieno di gente che gioca alla scrivania...e non è che ci puoi mettere un 50" 4k su una scrivania da 70-80cm di profondità.

Alodesign
13-12-2022, 14:30
Ancora con questa panzanata?

Non me ne importa nulla se passano da 300 a 400 watt incrementando le prestazioni del 50%. Ci mancherebbe, e' un processo produttivo migliore, ma lato architetturale quand'e` che si decidono di investire in gpu che offrano ottime prestazioni a consumi bassissimi?

E quando si decideranno a sviluppare software che non richiedono tutta questa potenza per avere gli stessi risultati a video?

bonzoxxx
13-12-2022, 14:32
Ancora con questa panzanata?

Non me ne importa nulla se passano da 300 a 400 watt incrementando le prestazioni del 50%. Ci mancherebbe, e' un nodo piu' piccolo ed efficiente ma lato architetturale non ci sono migliorie.

Io parlo di portare piu performance con consumi minori, non aumentandoli.

No se, poi dovrebbero innovare veramente :D :D

Si scherza eh,ma ad esempio Nvidia a livello di arch non ha fatto nulla se non aumentare la cache e pompare frequenze a cannone ma quello è merito di TSMC: er JHcHetta ha avuto fortuna con il pp altrimenti fosse stato ancora con Samsung avremmo delle simpatiche stuffe da 600W di picco e prestazioni neanche lontanamente come quelle dell'attuale 4090.

AMD non so, non ho visto l'arch (non che sia un'esperto, intendiamoci) e mi riservo di approfondire.

Pandemio
13-12-2022, 14:44
Tolta la gara a chi ce l ha più lungo,sono tutti dei mostri di potenza ma con prezzi fuori da ogni logica,belli i prezzi indicati nei siti dei produttori,poi nella realtà le cose son ben diverse,si fatica a trovare una 3080ti sotto i 1200 euro figuriamoci una 4080 che viaggia sui 1600 e oltre 2000 euro una 4090!
Senza contare che dovresti avere già un super PC ...ma a sto punto avrei già una 3080/90...e a mio parere sarebbe illogico cambiarla per una manciata di FPS in più.
Poi ce li vedo ...con l I5 ..16Gb di RAM morta e SSD aspetta che scrivo,montare una 4000 e rimanere delusi .

Vul
13-12-2022, 15:18
No se, poi dovrebbero innovare veramente :D :D

Si scherza eh,ma ad esempio Nvidia a livello di arch non ha fatto nulla se non aumentare la cache e pompare frequenze a cannone ma quello è merito di TSMC: er JHcHetta ha avuto fortuna con il pp altrimenti fosse stato ancora con Samsung avremmo delle simpatiche stuffe da 600W di picco e prestazioni neanche lontanamente come quelle dell'attuale 4090.

AMD non so, non ho visto l'arch (non che sia un'esperto, intendiamoci) e mi riservo di approfondire.

Io continuo a dire che da Maxwell in poi Nvidia non abbia evoluto nulla lato tecnologico lato raster.

Sicuramente e' stato interessante aggiungere gli rt cores ed e' chiaro che il machine learning porti a molti scenari interessanti dal ray tracing al sampling.

Ma il resto della gpu, la parte "normale" che si occupa del raster e' ferma a quasi 10 anni fa, a Maxwell. Sara' colpa della mancanza di competizione o cosa vi pare, ma ormai ambo i lati sanno solo aspettare nodi piu performanti per fare padelle piu' grosse.

Vul
13-12-2022, 15:21
Cap degli FPS, questo sconosciuto. O tu giochi senza limitatori?

Ma saro' libero di voler gpu piu piccole e che consumano meno andando di piu' e non occupando 2/3/4 slot?

O non si fa altro che aspettare nodi piu costosi per fare gpu piu grosse e lo si chiama "evoluzione" e sono affari miei che non metto i limiter e faccio downvolting/downclocking aggressivo?

Zappz
13-12-2022, 15:26
Secondo me il fullHD è importante perchè se uno gioca in fullHD deve rendersi conto come va una GPU: poi che comprare una 4090 per usarla in fullHD è follia pura non ci sono dubbi cosi come lo è spendere 2000€ per una GPU ma si ritorna sempre al punto che ognuno spende come meglio crede.

Però se una scheda ha un vataggio del 30% in 4k, in 1080 potrebbe arrivare allo stesso vantaggio a patto che il resto dell'hardware lo permetta. È facile da valutare in questo modo.

Diventa molto più complesso valutare se si guardano le recensioni in 1080, con valori estremamente diversi l'una dall'altra perché influenzate dal resto dell'hardware.

Alekx
13-12-2022, 15:45
Ti stanno dicendo che per valutare le prestazioni di una scheda non ha senso provarla in 1080 perché i risultati sono troppo falsati dal resto dell'hardware, perciò è giusto usare il 4k per capire se una scheda è più potente dell'altra. Poi se il mondo è pieno di gente che gioca con i pixel grandi come una casa non importa.

Quello che mi stanno dicendo l'ho detto io per primo scrivendo che il 4k serve per capire la potenza della scheda (mai detto il contrario), MA che non e' la risoluzione a cui gioca il 70% delle persone che, come dici tu, gioca ancora con i pixelloni. ;)

Alekx
13-12-2022, 15:49
Ancora con questa panzanata?

Non me ne importa nulla se passano da 300 a 400 watt incrementando le prestazioni del 50%. Ci mancherebbe, e' un processo produttivo migliore, ma lato architetturale quand'e` che si decidono di investire in gpu che offrano ottime prestazioni a consumi bassissimi?

Be' al momento e' come volere una Ferrari con i consumi di un'utilitaria.

Secondo me come in ambito automobilistico se compri una fuoriserie devi avere prestazioni da fuoriserie e.... consumi da fuoriserie.

La 4090 e' una fuoriserie e come giusto che sia consuma come lo e' la 7900XTX.

Max_R
13-12-2022, 15:55
In ogni caso la xtx è già volatilizzata

nickname88
13-12-2022, 16:18
Cap degli FPS, questo sconosciuto. O tu giochi senza limitatori?

Il cap contribuisce a tenere bassi i consumi solo se il titolo è leggero, ma se la VGA fatica già ad arrivarci il consumo è sempre alto.
Ma anche se non esistesse alcun gioco attuale che possa mettere in difficoltà tale VGA, usciranno quelli che nuova generazione che la metteranno alla frusta !

bonzoxxx
13-12-2022, 16:28
Però se una scheda ha un vataggio del 30% in 4k, in 1080 potrebbe arrivare allo stesso vantaggio a patto che il resto dell'hardware lo permetta. È facile da valutare in questo modo.

Diventa molto più complesso valutare se si guardano le recensioni in 1080, con valori estremamente diversi l'una dall'altra perché influenzate dal resto dell'hardware.

Infatti bisogna vedere tutte le risoluzioni altrimenti non si capisce bene :)

Io ho un 21:9 1440p 165hz quindi del fullHD non dovrebbe interessarmi ma li guardo lo stesso per vedere come l'hw scala in base alla risoluzione e ai differenti giochi, poi vado a vedere la media alle varie risoluzioni cosi mi faccio un'idea il più possibile aderente alla realtà.

Mettiamoci poi gli iutubber che fanno disinformazione e chi non è proprio ferrato va a finire che ha le idee più confuse di prima

Il cap contribuisce a tenere bassi i consumi solo se il titolo è leggero, ma se la VGA fatica già ad arrivarci il consumo è sempre alto.
Ma anche se non esistesse alcun gioco attuale che possa mettere in difficoltà tale VGA, usciranno quelli che nuova generazione che la metteranno alla frusta !

Hai ragione e dipende,il cap ha un suo perchè, ci sono giochi che non necessitano dei millemila frame, su quelli io cappo di brutto anche perchè non focalizziamoci troppo sulla sola GPU, il sistema cmq consuma e consuma assai il mio pc va dai 500 ai 700W in game eh, e non è tirato per il collo anzi. La 3080 senza Vcap arriva a 375W solo lei, poi mettiamoci tutto il resto e si sale alla grande.

Se è un FPS voglio i 165 frame, se è un gioco più tranquillo cappo a 55 che va più che bene e consumo meno.

Pandemio
13-12-2022, 16:38
Cosa è il raster nello specifico? La modellazione della scena nuda e cruda? Angoli vertici texture ecc ecc?

ninja750
13-12-2022, 16:53
Cosa è il raster nello specifico? La modellazione della scena nuda e cruda? Angoli vertici texture ecc ecc?

tutto quello che non è RT

nickname88
13-12-2022, 20:28
Fanno comunque più frame a parità di watt rispetto a qualsiasi altra GPU esistita prima (parlo delle ultime generazioni amd e nvidia)

O volete che producano corrente elettrica mentre giocate? Fatemi capire.
E se mi dici che hanno consumi massimi di oltre 300w ti rispondo che si tratta delle top di gamma, aspetta la fascia media poi eventualmente lamentati.

Il problema è che la gente non vuole che la VGA arrivi a consumare oltre un tot per via del calore in più prodotto, sia dalla scheda che dall'alimentatore a cui di conseguenza avrai un innalzamento del rumore prodotto dalle ventole ( hai presente un motore Jet in fase di avvio ? )

Se metti il cap al frame scaldi e consumi poco solo con i giochi leggeri, con i giochi pesanti arrivi comunque al limite, ed ANCHE SE non ci arrivi oggi, ci arriverai più avanti prima o poi con l'uscita di giochi sempre più pesanti.

In sintesi non si scappa, il cap va messo sull'assorbimento non sugli fps !!! :read:

Fanno comunque più frame a parità di watt rispetto a qualsiasi altra GPU esistita prima Anche la mia 3080 era più efficiente di qualunque altra scheda di generazione precedente, ma con RDR2 anche se cappato a 60fps i 340W me li faceva eccome !
E mica di "picco" !!! Ci arrivava spesso e volentieri e senza troppi fronzoli.
Ah dimenticavo .... ce l'ho pure settata in modalità Quiet che riduce pure la freq.

bobby10
14-12-2022, 01:08
Le sigle XTX E XT mi riportano indietro con i ricordi alle ati 1900xtx e 1900xt

al135
14-12-2022, 08:39
Oste, com'e` il vino?

ma anche no, non avrei esitato a comperare amd (come ho fatto in passato) se fosse stata ultra performante. cioe' va molto meno della metà in ray tracing e un 30 % in meno in raster

Alekx
14-12-2022, 09:02
Intanto ieri se non erro sono usciti i nuovi driver AMD appositamente per migliorare le performance della serie 7xxxx.

Certo non faranno miracoli ma vediamo cosa succede.

luckye
14-12-2022, 09:14
La 7900XT a quel prezzo non ha senso. La 7900 XTX costra troppo poco meno della 4080 che al momento le è superiore. In raster sono lì, ma la maturità dei driver Nvidia e il DLSS 3 sono ancora tre spanne sopra. Bene la dotazione abbondante di ram in ottica futura. Sono felice ma sinceramente non entusiasta. Il 1.6x e 1.7x rispetto alla 6950XT non si sono visti.

Vul
14-12-2022, 12:23
ma anche no, non avrei esitato a comperare amd (come ho fatto in passato) se fosse stata ultra performante. cioe' va molto meno della metà in ray tracing e un 30 % in meno in raster

Definire la 7900 xtx un "obrobrio" quando si possiede una gpu da 600 mm2, che consuma 5/600 watt e costa 2000 euro per andare il 25% in piu mi sembra proprio fuori luogo.

Avessi comprato una gpu che va di piu consumando meno ed avendo un miglior rapporto prestazioni/prezzo potevi pure fare commenti simili, ma cosi lo trovo proprio bislacco perche' non sei proprio il re degli affari.

Zappz
14-12-2022, 12:29
Alla fine è una gpu senza ne arte ne parte, non è abbastanza potente da risultare interessante, ne abbastanza economica da essere conveniente...

StrixyRoG
14-12-2022, 12:30
Definire la 7900 xtx un "obrobrio" quando si possiede una gpu da 600 mm2, che consuma 5/600 watt e costa 2000 euro per andare il 25% in piu mi sembra proprio fuori luogo.

Avessi comprato una gpu che va di piu consumando meno ed avendo un miglior rapporto prestazioni/prezzo potevi pure fare commenti simili, ma cosi lo trovo proprio bislacco perche' non sei proprio il re degli affari.

È interessante vedere come si sparano numeri a caso senza nemmeno possedere le schede.

StylezZz`
14-12-2022, 13:04
Bene la dotazione abbondante di ram in ottica futura

Classico specchietto per le allodole, non te ne farai nulla per giocare dato che le schede saranno obsolete ancor prima di poterla sfruttare.

StIwY
14-12-2022, 13:04
Per essere interessanti dovrebbero costare almeno 200 euro in meno, ma al solito fra speculazioni, ingordigia e polli che si fanno spennare la situazione non si normalizzerà mai.

DMD
14-12-2022, 13:17
Buongiorno.
Ho visto in rete che è trapelato finalmente il primo bench (https://www.eteknix.com/amd-radeon-rx-7900-xt-7900-xtx-review/8/) relativo al video editing con daVinci Resolve, fino adesso avevo notato solo test per i giochi.

https://i.postimg.cc/0yLrJwhX/Screenshot-001.png

A vedere i primi grafici la 4080 se la cava abbastanza bene nonostante 16 gB di Vram , evidentemente non è solo la quantità di memoria che fa la differenza.
Per quanto riguarda il prezzo alla data odierna la Radeon 7900 XTX viene venduta a circa 1300 (https://www.idealo.it/cat/16073/schede-video.html?q=Radeon+7900+xtx)euro contro i 1400 della Geforce RTX 4080 (https://www.idealo.it/cat/16073F1728145-103891483/schede-video.html?p=0.0-2399.0&q=geforce+rtx+4080).

bonzoxxx
14-12-2022, 13:47
1300 la XTX contro i 1400 della 4080 la scelta è abbastanza ovvia... 4090 FE :D

Vul
14-12-2022, 14:13
È interessante vedere come si sparano numeri a caso senza nemmeno possedere le schede.

Eh immagino che invece tu le possiedi entrambe e parli con cognizione di causa.

Io vedo che una xtx tuf occata https://tpucdn.com/review/asus-radeon-rx-7900-xtx-tuf-oc/images/oc-cyberpunk.png

raggiunge tranquillamente una 4090 che esce di fabbrica molto tirata per i capelli in frequenze e consumi.

Il tutto consumando comunque 100 watt in meno di media.

Ripeto, chiamare una xtx un "obrobrio" mi sembra proprio volersi autoconvincere di aver fatto una buona scelta quando ci si e' messi a 90 per acquistare un obrobrio da 500+ watt a 2000 euro.

Jensen vi ha venduto una turing piu grande e piu costosa e piu esigente e voi li a gridare al miracolo perche' fa 40 fps su qualche gioco a 4k in ray tracing quando io di questi giochi che siano davvero belli (e per dirla tutta, piu belli) con il ray tracing ancora li devo vedere negli ultimi 4 anni.

Ma vabbe, c'e` Portal RT potete giocare a roba vecchia di 15 anni con qualche riflesso di luce a 300 fps anziche' 200, avete fatto un bell'acquisto.

A dirla tutta, sono tutte le gpu uscite nell'ultimo anno ad essere obrobri insensati e passi indietro tecnologici giganteschi mascherati da grafici con fps maggiori. La tecnologia e l'evoluzione lato gpu latita e l'hardware prodotto da entrambe e' penoso a dir poco. Questo anche ignorando i prezzi. Perche' quando si guardano i prezzi c'e` solo da stendere un velo pietoso.

Ma uno che ha una 4090 non puo' proprio chiamare nessuna gpu al mondo un obrobrio.

Pietro.Cipollina
14-12-2022, 14:17
L'uva è ancora acerba quindi. Se uno vuole il top esiste solo Nvidia. Peccato se AMD fosse uscita con una scheda degna di competere con la top avversaria un pensiero lo avrei fatto.

pity91
14-12-2022, 14:23
schede più che interessanti per il 4K
non male

kellone
14-12-2022, 14:39
in ray tracing quando io di questi giochi che siano davvero belli (e per dirla tutta, piu belli) con il ray tracing ancora li devo vedere negli ultimi 4 anni.


Dai retta ad uno scemo, già che hai tirato in ballo CP77, non metterti mai nelle condizioni di poterlo vedere girare in 4K tutto maxato con RT su un buon schermo HDR sopra i 60fps, perché da quel momento la tua esperienza videoludica non sarà più la stessa.

:D

DMD
14-12-2022, 15:14
1300 la XTX contro i 1400 della 4080 la scelta è abbastanza ovvia... 4090 FE :D
Indubbiamente la 4090 è la top, con un gap di quasi 1000 euro in più (https://www.idealo.it/risultati.html?q=geforce+rtx+4090) alla data odierna.

bonzoxxx
14-12-2022, 15:32
Indubbiamente la 4090 è la top, con un gap di quasi 1000 euro in più (https://www.idealo.it/risultati.html?q=geforce+rtx+4090) alla data odierna.

Infatti ho scritto FE :D
le altre oltre quella cifra non le considero proprio già la 4090 è svariate volte sopra il mio limite personale di spesa.

Max_R
14-12-2022, 15:58
Per essere interessanti dovrebbero costare almeno 200 euro in meno, ma al solito fra speculazioni, ingordigia e polli che si fanno spennare la situazione non si normalizzerà mai.

Figurarsi che vendono "ordini già accettati" per 1500€
Andassero a lavorare

al135
14-12-2022, 18:00
Definire la 7900 xtx un "obrobrio" quando si possiede una gpu da 600 mm2, che consuma 5/600 watt e costa 2000 euro per andare il 25% in piu mi sembra proprio fuori luogo.

Avessi comprato una gpu che va di piu consumando meno ed avendo un miglior rapporto prestazioni/prezzo potevi pure fare commenti simili, ma cosi lo trovo proprio bislacco perche' non sei proprio il re degli affari.

si mille watt... arrivo a 420 quando la tiro per il collo.
che c'entra l'affare? uno compra quello che gli serve.
con la 7900 posso giocare col raytracing come piace me ? no. quindi che c'entra l'affare? se andasse circa come una 7900 ti avrei dato ragione ma non facciamo discorsi ad cazzum please

sniperspa
14-12-2022, 22:56
Delle prestazioni non me ne frega una ceppa come del RT ma queste schede son senza dubbio una delusione performance/consumi

Almeno con i driver attuali son sicuramente deludenti, vedremo se cambia qualcosa ma intanto la presentazione c'è stata e queste review rimangono

Mi auguro per AMD che almeno i margini siano molto buoni e ci sia margine di miglioramento lato prezzi

Pandemio
15-12-2022, 20:09
Alla fine penso siamo arrivati al capolinea,ogni tanto tirano fuori qualche mirabolante effetto ma oltre al fotorealismo non si potrà andare,tipo giocheremo come dentro a un film,risoluzione 4k/8k/16k non farà più differenza saremo sempre noi fuori che guardiamo dentro uno schermo per quanto reale possa essere un immagine. Già meglio i visori ma fin quando non inventeranno qualcosa di strepitoso e rivoluzionario (tipo sao) ingolosiranno i giocatori con piccoli dettagli,nuove feature visive e basta.

paolo cavallo
16-12-2022, 14:30
NVIDIA mantiene lo scettro delle prestazioni.......... in ogni scenario con la GeForce RTX 4090,....... su questo non ci sono discussioni, ma il prezzo è molto alto anche a fronte del leggerissimo taglio operato nei giorni scorsi.Un capitolo a parte meritano le prestazioni pure in ray tracing, -----------ambito dove AMD rimane grossomodo indietro di una generazione rispetto a NVIDIA.------ Questo non significa che le prestazioni siano scadenti, anzi, ma semplicemente che le RTX 4000 hanno un vantaggio chiaro sotto questo punto di vista.Il recensore è stato molto chiaro

paolo cavallo
13-09-2023, 16:50
Rapporto prezzo prestazioni AMD THE BEST !!