Radeon RX 9070 XT e 9070 recensione: RDNA 4 mette pressione a NVIDIA

Radeon RX 9070 XT e 9070 recensione: RDNA 4 mette pressione a NVIDIA

Dopo il posticipo da gennaio a marzo, finalmente le GPU Radeon RX 9070 XT e 9070 sono pronte a debuttare sul mercato. Le proposte RDNA 4 si sono ben comportate nei test gaming, dimostrandosi temibili concorrenti delle GeForce RTX 5070 0 5070 Ti. Il prezzo davvero aggressivo della 9070 XT rappresenta, almeno in teoria, una condanna a morte per la sorella minore.

di pubblicato il nel canale Schede Video
NaviRDNARadeonAMD
 
101 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
ionet06 Marzo 2025, 01:41 #71
Originariamente inviato da: ninja750
credo che street finiranno per essere 600 e 700 non 50

io per primo non voglio una scheda da più di 300w nel case per principio

se con la liscia si può fare un po' di uv e oc restando nei 250w per andare 10% della XT sarebbe davvero niente male



il problema è che non essendo state presentate schede mba sono state tutte recensite schede uber che consumano tanto di più. le varie nitro ecc hanno sempre consumato tipo 50w in più per fare tipo 2fps in più nonsense



per me è quasi la più interessante delle due



credo anche io che il clock inizialmente pensato non fosse questo


quoto te e gli altri dubbiosi sui consumi
si la 9070xt e' stata tirata un po di piu' per cercare di avvicinarsi alla 5070ti
solito discorso, passato lo sweet spot ideale perde drasticamente, ma basta poco per farla rientrare a valori piu' tranquilli

le nuove arrivate, soprattutto la 9070, in realta' battono nuovi rekord in efficienza, se non punzecchiate

https://www.computerbase.de/artikel...t.91578/seite-9

il test normalizzato a 144fps e' incredibile, da 7900xtx a 9070xt con quasi meta' consumi
forse nemmeno da Vega a RDNA, il tutto con un silicio che e' solo un refresh del precedente
Marckus8706 Marzo 2025, 03:51 #72
guardando queste prestazioni la mancanza di una rx9080 sembra un peccato quasi mortale
fraussantin06 Marzo 2025, 07:17 #73
Originariamente inviato da: Marckus87
guardando queste prestazioni la mancanza di una rx9080 sembra un peccato quasi mortale


Il problema è che amd ha difficoltà a vedere schede costose.

Fare un chip grosso richiede investimenti e i 4 nn non aiutano, e avrebbero dovuto sfornarlo prob a 1500 euro se non più .

Secondo me ha fatto bene a concentrarsi sulla fascia media .
Anzi per me servirebbe anche una bella linea xx60 sotto i 500 street price.

Gli servirebbe a recuperare quote di mercato e a farsi prendere in considerazione dai produttori di giochi.
Mparlav06 Marzo 2025, 07:18 #74
Originariamente inviato da: StylezZz`
La 9070 liscia undervoltata si manterrà facilmente sotto i 200W.


Questo potrai farlo anche con le rtx 5070/5070 ti senza cambiere gli equilibri del prestazioni/consumi
Manolo De Agostini06 Marzo 2025, 08:08 #75
Originariamente inviato da: carloUba
Ok ma che senso avrebbe testare un titolo con tutte le tech nvidia attive contro una scheda AMD? Per metterla volutamente in cattiva luce?


Perché è lo stato delle cose.. non è colpa mia se AMD non ha la MFG. Io ritengo che le tech che ci sono debbano essere attivate... altrimenti avrei mostrato delle 5000 castrate - ma evidentemente per alcuni sarebbe stato giusto così. La gente deve sapere chi offre cosa, poi acquistate quello che volete, a me non frega davvero nulla di chi va meglio, peggio, di cosa acquistate o no... fate quel che volete, i soldi son vostri.

Originariamente inviato da: supertigrotto
Manolo,la MFG la devono usare per forza tutti,quando Huang lanciò le prime schede RT,ammise che un vero raytracing lo si avrebbe avuto forse una decina di anni o anche di più.
Ho letto molto sull'argomento,gli stessi programmatori ,sia di videogiochi,sia di effetti grafici per il cinema,avevano detto che per avere un raytracing a pieno schermo in tempo reale,la potenza in gioco è davvero elevata.
La gente in comune si illude che una singola scheda per PC riesca a fare tutto ciò ma spesso i programmatori,per non creare disastri,nemmeno applicano il raytracing puro a tutta la scena, specialmente se la scena è formata da molti poligoni,ma la gente non lo sa questo e pensa che la loro scheda da 3000 euro riesce a movimentare scene in RT a pieno schermo e in 4k.
Se non usassero il trucchetto del MGF o FG ,il sistema sarebbe un grande crisi.


Eh, ma secondo qualcuno non è vero... la MFG è un grande inganno... allora non si spiega come mai anche AMD e Intel siano sullo stesso percorso. Sarebbe da fare un aereo e mandare tutti all'HQ di NVIDIA... così possono andare da Catanzaro e compagni a dargli che non hanno capito niente. Non riesco proprio a capire queste battaglie di retroguardia.

Originariamente inviato da: ninja750
che se ce ne freghiamo della qualità di immagine allora tutti possono usare losless scaling a 3€ e facciamo tutti 8x di perf, ti pare logico? o guardiamo anche la qualità dei frame a video?


Ma non è quello il punto di una review prestazionale di una GPU.... tra l'altro io gioco con queste tech e non vedo una qualità degrada in modo importante, almeno fino a determinati livelli di upscaling, chiaro che se scendi troppo si nota. Durante l'azione nemmeno te ne accorgi.... tant'è che per mostrare i miglioramenti anche i produttori sono costretti a volte a zoomare cose in lontananza che oggettivamente passano inosservate durante il gaming... con i giochi si gioca, non si sta a contare i fili d'erba.. e upscaling con FG/MFG assicurano un'ottima esperienza, da par mio.
cronos199006 Marzo 2025, 08:42 #76
Sulla recensione e la discussione in essere sul MFG mi limiterò a dire che il suo funzionamento e utilizzo andrebbe contestualizzato in maniera opportuna. Passo quindi a dire quel che penso di questa scheda... e parlo della 9700XT, la versione "liscia" la lascio da parte.

E sinceramente mi pare che AMD abbia fatto un bel passo in avanti. Se guardiamo le prestazioni pure in raster, di fatto abbiamo una GPU che costa 200-250 euro di meno della 5070Ti ma che ha prestazioni paragonabili se non superiori. Perchè quello più o meno è: al momento pare che la 9700XT si troverà intorno agli 800 euro, mentre una 5070Ti se la trovi a meno di 1000 euro hai fatto jackpot (fermo restando che non si trovano affatto ora). Poi certo, presumo che col tempo il prezzo della 9700XT calerà, ma lo stesso si potrà dire della 5070Ti.
Questa è a tutti gli effetti una scheda da 4K, di fatto ha prestazioni paragonabili alla 4080SUPER (ma guarda un po', qui c'è la SUPER nei test ).

Purtroppo però per quanto riguarda il resto, siamo ancora indietro. Beninteso: AMD ha migliorato in tutte le aree, ma il gap da colmare (se poi lo vorrà davvero colmare) era enorme e quindi arrivare a pareggiare in un sol colpo Nvidia alquanto utopistico.

In RT (e PT) c'è stato sicuramente un bel balzo in avanti, ma in ogni caso questa scheda non è l'ideale. A seconda di quanto è applicato, rispetto alla 5070 Ti va dal pareggio delle prestazioni (tipo l'ultimo Monster Hunter dove c'è una leggera applicazione sui riflessi dell'acqua e basta) ad andare a poco più della metà in quelli dove è applicato più pesantemente.
È indubbio che se uno vuole l'RT, o per lo meno non vuole compromessi, questa scheda non è quella adatta.

Discorso analogo, con qualche sfumatura più positiva, per l'FSR. La versione 4 è un bel balzo in avanti, sia in termini di qualità visiva che di prestazioni, di fatto in molti lo paragonano al DLSS3 o lo reputano leggermente migliore. Per cui rappresenta sicuramente un valore aggiunto che può dare miglioramenti prestazionali senza perdite di qualità visive in tutte le situazione (laddove, ovviamente, è implementato).
Purtroppo, ed è qui che Nvidia fa davvero la voce grossa, il DLSS4 è due spanne sopra, qualcosa che ad oggi difficilmente si può rinunciare. Surclassa un buon upscaler come l'FSR4 in tutte le aree di competenza, senza se e senza ma.

Non entro nel merito del, già citato all'inizio, MFG e relativa controparte AMD. Mi limito a dire che questa tech ha un senso (e AMD lo dice chiaramente, a differenza di Nvidia con la solita abilità nel nascondere la polvere sotto il tappeto) che servono almeno 60 FPS di base per poterlo usare efficacemente.
Altrimenti, tra artefatti, lag e animazioni asincrone seppur apparentemente fluide, è chiaro che diventa un problema e non un valore aggiunto. Si tratta di una cosa che ha senso solo in alcuni contesti, e di sicuro per chi dispone di monitor all'altezza delle prestazioni (FPS) che può offrire.
Andrebbe testato? Certo, ovviamente. Ma sarebbe da limitare appunto in quei contesti dove le schede raffrontate sono in grado, appunto, di tenere almeno i 60 FPS nativamente. Altrimenti è solo marketing e uno specchietto per le allodole.


In conclusione: se AMD riesce a mantenere questo ottimo rapporto qualità/prezzo, queste schede sono un ottimo compromesso e permettono di avere prestazioni da 4K ad un prezzo che in Nvidia si sogna la notte. Questo è un valore aggiunto e la miglior situazione possibile per iniziare a recuperare quote di mercato, anche grazie all'FSR4 che comunque ad oggi è un buonissimo upscaler.
Ma se non si vogliono compromessi e si è disposti a fare lo sforzo economico superiore, è chiaro che Nvidia guarda dall'alto in basso questa scheda.

AMD deve considerare questa scheda un punto di partenza per poter poi migliorare... lo ripeto, se vuole davvero colmare il gap.
ghiltanas06 Marzo 2025, 08:43 #77
Originariamente inviato da: Mparlav
Questo potrai farlo anche con le rtx 5070/5070 ti senza cambiere gli equilibri del prestazioni/consumi


lato consumi la liscia non è male:

https://hothardware.com/reviews/amd...nchmarks?page=5

ad es.

è la xt che è bella tirata e quindi i consumi nè risentono
fukka7506 Marzo 2025, 08:53 #78
Originariamente inviato da: Luxor83
L'unica scheda nata morta è la 5070, non la 9070 liscia che ha comunque senso di esistere per chi non vuole spararsi 300w dentro al case.
Ma la 9070 consuma più della 5070, o sbaglio?
cronos199006 Marzo 2025, 08:54 #79
Le schede hanno consumi in linea con quanto dichiarato. Per cui hai 220W per la 9700 e circa 300W per la 9700XT.

Andrebbe fatto notare che questo è probabilmente in relazioni con le frequenze operative (la differenza tra le due schede è marcata, se non erro intorno ai 400 MHz). Così come andrebbe fatto notare che la 5070 Ti ha lo stesso consumo della 9700XT. 5070 Ti che, ricordo, in raster di fatto va meno ma in RT va meglio.
ghiltanas06 Marzo 2025, 08:58 #80
Originariamente inviato da: fukka75
Ma la 9070 consuma più della 5070, o sbaglio?


poco di più, la 9070 avrebbe giusto bisogno di un taglio di 50$ a mio avviso e distanziarsi dalla xt

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^