View Full Version : Radeon RX 9070 e 9070 XT, il CEO conferma il debutto a inizio marzo. Si stringe il cerchio: acquistabili dal 6 marzo?
Redazione di Hardware Upg
05-02-2025, 11:21
Link alla notizia: https://www.hwupgrade.it/news/skvideo/radeon-rx-9070-e-9070-xt-il-ceo-conferma-il-debutto-a-inizio-marzo-si-stringe-il-cerchio-acquistabili-dal-6-marzo_135339.html
Il CEO di AMD ha assicurato che le nuove GPU RDNA 4 arriveranno a inizio marzo. Dall'Asia sono ancora più precisi e fissano il debutto per il 6 marzo. Le nuove schede puntano su ray tracing e FSR 4 per far concorrenza alle proposte di NVIDIA.
Click sul link per visualizzare la notizia.
Ti prego non più di 600 euro ivato...
Ti prego non più di 600 euro ivato...
Uhm...non so perchè ma ci conterei poco...:stordita:
coschizza
05-02-2025, 11:32
Ti prego non più di 600 euro ivato...
impossibile mica te le possono regalare, se le prestazioni sono quelle dei leak almeno altri 200€
ninja750
05-02-2025, 11:42
bene quindi usciranno prima delle 5090 e 5080 :O
coschizza
05-02-2025, 11:45
bene quindi usciranno prima delle 5090 e 5080 :O
la differenza è che le nvidia sono poche ma tutti le vogliono quelle amd saranno tante ma nessuno le vuole, guarda i bilanci appena pubblicati amd non vende piu gpu praticamente, io vorrei comprare amd ma poi i prodotti sono troppo scarsi per farlo veramente
bene quindi usciranno prima delle 5090 e 5080 :O
:sbonk:
AceGranger
05-02-2025, 11:57
"Nel settore della grafica per il gaming, il fatturato è diminuito rispetto all'anno precedente, in quanto abbiamo accelerato il sellout del canale in vista del lancio delle nostre GPU di nuova generazione della serie Radeon 9000"
hanno fatto un sellout fatturando di meno, quindi sta dicendo che hanno abbassato i prezzi per fare fuori le scorte di magazzino e liberare i canali pero al contempo hanno pure perso market share :asd:
StylezZz`
05-02-2025, 12:09
la differenza è che le nvidia sono poche ma tutti le vogliono quelle amd saranno tante ma nessuno le vuole, guarda i bilanci appena pubblicati amd non vende piu gpu praticamente, io vorrei comprare amd ma poi i prodotti sono troppo scarsi per farlo veramente
Splendida notizia.
impossibile mica te le possono regalare, se le prestazioni sono quelle dei leak almeno altri 200€
La faranno uscire al prezzo che vogliono, ovviamente. A 800€ assolutamente non la compro. Chiaramente 600€ iva inclusa sono previsioni troppo rosee.
Splendida notizia.
In che senso?
StylezZz`
05-02-2025, 13:36
In che senso?
Nel senso che saranno facilmente disponibili per chi è interessato, a differenza di quelle nvidia che ''tutti le vogliono''.
Nel senso che saranno facilmente disponibili per chi è interessato, a differenza di quelle nvidia che ''tutti le vogliono''.
Lo sai vero che quando arriverà AMD con la 9070xt a 800€ o meno tutti la applaudiranno come salvatrice della patria, ma non la comprerà nessuno e aspetteranno il taglio di prezzo della 5070ti? :asd:
Max Power
05-02-2025, 13:49
io vorrei comprare amd
Certo, "La volpe e l'uva"
Sei povero: non te la puoi permettere :asd:
supertigrotto
05-02-2025, 13:49
Mi sa che tutte le schede video dei vari produttori,AMD,Intel e Nvidia saranno distribuite con il contagocce,in stile periodo mining,con la fame che ha il mercato di schede IA,non fatevi illusioni,trovarle e pagarle il giusto sarà una vera impresa,poi dovrete superare la barriera degli scalper che già si sono dati da fare con le 5090......
Lo sai vero che quando arriverà AMD con la 9070xt a 800€ o meno tutti la applaudiranno come salvatrice della patria, ma non la comprerà nessuno e aspetteranno il taglio di prezzo della 5070ti? :asd:
Il Pc gamer medio è questo, in effetti spero che la fascia bassa arrivi a 1500 euro :rotfl:
Il Pc gamer medio è questo, in effetti spero che la fascia bassa arrivi a 1500 euro :rotfl:
Tempo due o tre generazioni e la fascia bassa non esisterà più.
Ma a pensarci bene già oggi nessuno ha annunciato schede di fascia bassa.
Nvidia si è fermata alla 5070, AMD in una slide ha messo la 9060 ma poi non se ne è più parlato.
Intanto Ryzen AI Max+ 395 è la prima APU che promette di arrivare a lambire fasce di prestazioni interessanti.
Quando ci sarà il nipote di sta APU e probabilmente anche Nvidia avrà il suo soc per gaming, non ci sarà più bisogno della fascia bassa e nelle classifiche come steam survey saranno le integrate le più usate.
la differenza è che le nvidia sono poche ma tutti le vogliono quelle amd saranno tante ma nessuno le vuole, guarda i bilanci appena pubblicati amd non vende piu gpu praticamente, io vorrei comprare amd ma poi i prodotti sono troppo scarsi per farlo veramente
Non le voleva nessuno prima del lancio delle rtx 50, poi le 7900xtx sono andate tutte esaurite :asd:
NVIDIA produrrà anche le 5060/5060 TI.
Mi pare di averlo letto proprio qui dentro, da qualche parte.
La TI si vocifera addirittura con 16GB. Il problema è capire a quanto ! :mbe: :stordita:
la differenza è che le nvidia sono poche ma tutti le vogliono quelle amd saranno tante ma nessuno le vuole, guarda i bilanci appena pubblicati amd non vende piu gpu praticamente, io vorrei comprare amd ma poi i prodotti sono troppo scarsi per farlo veramente
Mah scarsi dipede da cosa vuoi farci, ho preso da poco la 7800XT a 470€ direi che ho speso il giusto per giocare principalmente in 2K sugli FPS Online.
bene quindi usciranno prima delle 5090 e 5080 :O
:asd:
Ti prego non più di 600 euro ivato...
:friend:
Lo sai vero che quando arriverà AMD con la 9070xt a 800€ o meno tutti la applaudiranno come salvatrice della patria, ma non la comprerà nessuno e aspetteranno il taglio di prezzo della 5070ti? :asd:
Pure le AMD saranno impossibili da trovare, anche a 1000 euro :stordita:
CrapaDiLegno
05-02-2025, 17:10
Lo sai vero che quando arriverà AMD con la 9070xt a 800€ o meno tutti la applaudiranno come salvatrice della patria, ma non la comprerà nessuno e aspetteranno INVANO il taglio di prezzo della 5070ti? :asd:
Piccola correzione.
Non le voleva nessuno prima del lancio delle rtx 50, poi le 7900xtx sono andate tutte esaurite :asd:
Sarà forse perché hanno smesso di produrre quei polmoni diverso tempo fa perché credevano di poter mettere sul mercato le nuove 9070 a 900 euro già a fine Gennaio?
:read:
P.S: ma tutto l'hype relativo all'uso del MCM di Navi 31 dove è finito ora che AMD si sta presentando solo con un chip di classe media monolitico? Non era così semplice aumentare le prestazioni mettendo più chiplet insieme?
tuttodigitale
05-02-2025, 17:57
Sarà forse perché hanno smesso di produrre quei polmoni diverso tempo fa perché credevano di poter mettere sul mercato le nuove 9070 a 900 euro già a fine Gennaio?
:read:
ricordo che sulla carta le RTX 4070 (ti) Super avranno persino un vantaggio di prestazioni teoriche su FP32 rispetto alle RTX 5070 (ti).
Se AMD è stata presa alla sprovvista, non sono i prezzi incredibili rapportate alle prestazioni, ma semmai che il mercato di riferimento delle schede nvidia sarà identico a quello di AMD...
Le RTX 5070ti le vedranno con il binocolo le prestazioni delle 7900xtx in raster...
Sarà forse perché hanno smesso di produrre quei polmoni diverso tempo fa perché credevano di poter mettere sul mercato le nuove 9070 a 900 euro già a fine Gennaio?
:read:
P.S: ma tutto l'hype relativo all'uso del MCM di Navi 31 dove è finito ora che AMD si sta presentando solo con un chip di classe media monolitico? Non era così semplice aumentare le prestazioni mettendo più chiplet insieme?
devi fare anche pace con il cervello :D . Da una parte quei polmoni AMD li vendeva già a 900 euro, e ora un chip complessivamente meno costoso da produrre (i 4/5nm è un processo maturo) lo vuole vendere allo stesso prezzo, pur offrendo sulla carta prestazioni inferiori (salvo miracoli)? La 7900xt, la scheda che sta sostituendo, costa di listino 749 dollari da oltre un anno e ha 20GB di Vram...pensare che possa costare di più mi pare folle (a meno di prestazioni incredibili, ma a quel punto il paragone andrebbe fatto con la 5080), senza dimenticare che la 7900GRE da 16GB di listino sta a 549 dollari.. un aumento di prestazioni del 10-15% per quasi il doppio del prezzo? è credibile?
Se il marketing di AMD, che parte già debole per la mancanza di giornalai devoti, non vuole autoinfliggersi un pesante autogol deve offrire con i nuovi prodotti PRESTAZIONI ALMENO pari alle schede che attualmente coprono la stessa fascia di prezzo in tutti gli ambiti di utilizzo. E seppur di poco (?) la RX 7900xtx è fuori portata da questo obiettivo e non può assolutamente costare uguale. AMD non è nella posizione di fare quello che sta facendo nvidia...ovvero riproporre schede nuove con le stesse prestazioni dei modelli vecchi....919 euro per una scheda che va, a parte il RT, quanto una 7900 xt da 750 euro?
CrapaDiLegno
05-02-2025, 19:44
ricordo che sulla carta le RTX 4070 (ti) Super avranno persino un vantaggio di prestazioni teoriche su FP32 rispetto alle RTX 5070 (ti).
Se AMD è stata presa alla sprovvista, non sono i prezzi incredibili rapportate alle prestazioni, ma semmai che il mercato di riferimento delle schede nvidia sarà identico a quello di AMD...
Lo spiazzamento non sono le prestazioni, che sarebbero inferiori all'atteso o persino a tuo dire un passo indietro, altrimenti la nuova scheda AMD invece che a 900 la piazzavano a 1000 e usciva subito, non in ritardo di oltre 2 mesi per mettersi d'accordo su quanti soldi restituire ai partner che le hanno già in magazzino da tempo.
Lo spiazzamento è dato dai prezzi. Probabilmente AMD si aspettava die più grandi da parte di Nvidia, quindi costi maggiori per lei, contro cui combattere a suon di prestazioni raster.
Giocare, quindi, al solito giochino retrogrado per cui si gioca meglio con i giochi vecchi invece che quelli futuri, tanto a quanto pare l'utenza AMD è abituata a cambiare scheda ogni anno per sostituire la patacca comprata l'anno prima invece che puntare su qualcosa che costa di più ma che funziona meglio per un periodo più lungo.
Le RTX 5070ti le vedranno con il binocolo le prestazioni delle 7900xtx in raster...
In raster appunto. Quando c'è una azienda che parla di sviluppo e progresso aggiungendo tensor, neural engines, mega geometry e HW per meglio gestire le funzionalità moderne delle GPU, la risposta non può che essere: eh, ma in raster la 7900XTX va meglio. E infatti la scheda va meglio nei giochi "ottimizzati" per l'archietettura AMD, come quella porcheria di Spiderman che è scritta per girare meno peggio su HW AMD rispetto al resto.
Le 700XTX sono così avanti nel rapporto costi/prestazioni che AMD ha smesso di farle appena possibile.
Se ti va di capire qualcosa sulla questione costi/prestazioni dai un'occhiata alle dimensioni e numero di transistor della 5070 rispetto alla 4070.
devi fare anche pace con il cervello :D . Da una parte quei polmoni AMD li vendeva già a 900 euro, e ora un chip complessivamente meno costoso da produrre (i 4/5nm è un processo maturo) lo vuole vendere allo stesso prezzo, pur offrendo sulla carta prestazioni inferiori (salvo miracoli)? La 7900xt, la scheda che sta sostituendo, costa di listino 749 dollari da oltre un anno e ha 20GB di Vram...pensare che possa costare di più mi pare folle (a meno di prestazioni incredibili, ma a quel punto il paragone andrebbe fatto con la 5080), senza dimenticare che la 7900GRE da 16GB di listino sta a 549 dollari.. un aumento di prestazioni del 10-15% per quasi il doppio del prezzo? è credibile?
Se il marketing di AMD, che parte già debole per la mancanza di giornalai devoti, non vuole autoinfliggersi un pesante autogol deve offrire con i nuovi prodotti PRESTAZIONI ALMENO pari alle schede che attualmente coprono la stessa fascia di prezzo in tutti gli ambiti di utilizzo. E seppur di poco (?) la RX 7900xtx è fuori portata da questo obiettivo e non può assolutamente costare uguale. AMD non è nella posizione di fare quello che sta facendo nvidia...ovvero riproporre schede nuove con le stesse prestazioni dei modelli vecchi....919 euro per una scheda che va, a parte il RT, quanto una 7900 xt da 750 euro?
Devi impegnarti di più se vuoi fare l'avvocato di AMD. Così non la aiuti per niente.
La mia domanda era semplice, ma tu l'hai scansata con un bell'avvitamento alla Matrix: l'architettura MCM sulle GPU è servita a migliorare il rapporto costo/prestazioni oppure no? Avete scassato i cabasisi per un anno intero parlando dei miracoli di AMD con l'MCM arrivato sulle GPU, Nvidia rimasta al palo con le soluzioni monolitiche insostenibili.
E sì, la 7090 sarà meglio della 5070. Che usa un die da 260mm^2.
Concludo con 2 numeri che sintetizzano il risultato del posizionamento economico dei prodotti AMD da te descritto con tanto entusiasmo. Vediamo se capisci cosa significano in termini di strategia adottata e adottabile per il futuro:
Gaming
Net revenue $ 563
Operating income $ 50
Lo spiazzamento non sono le prestazioni, che sarebbero inferiori all'atteso o persino a tuo dire un passo indietro, altrimenti la nuova scheda AMD invece che a 900 la piazzavano a 1000 e usciva subito, non in ritardo di oltre 2 mesi per mettersi d'accordo su quanti soldi restituire ai partner che le hanno già in magazzino da tempo.
Lo spiazzamento è dato dai prezzi. Probabilmente AMD si aspettava die più grandi da parte di Nvidia, quindi costi maggiori per lei, contro cui combattere a suon di prestazioni raster.
Giocare, quindi, al solito giochino retrogrado per cui si gioca meglio con i giochi vecchi invece che quelli futuri, tanto a quanto pare l'utenza AMD è abituata a cambiare scheda ogni anno per sostituire la patacca comprata l'anno prima invece che puntare su qualcosa che costa di più ma che funziona meglio per un periodo più lungo.
Sono con te sulla prima parte ma non sull'ultima dove scrivi che chi ha investito su schede AMD le deve cambiare ogni anno. Alla fine dipende sempre cosa cerchi, come giochi, a che risuluzioni e cosa ti aspetti da una scheda, domande che in molti non si fanno mai comprando solo leggendo la marca sulla scatola (non e' che con una 3060/3070 oggi vai piu' lontano ripetto a una 6700/6800).
Con questo NON sto difendnedo AMD, che NVIDIA sia avanti e' innegabile e quello che mi sono sempre chiesto e' perche' AMD non riesca (o non vuole) a progettare una GPU con una parte dedicata alla gestione dell' RT cosi' come fa NVIDIA e potersela giocare.
Detto questo personalmente penso che non appena usciranno le 9070 a seconda del prezzo puntero' su una di loro perche' le potenze in gioco, almeno per il sottoscritto, bastano e avanzano, il rapporto prezzo/prestazioni/aspettative almeno per me e' cruciale e sinceramente delle mie scelte non me ne sono mai pentito. ;)
StylezZz`
06-02-2025, 08:44
(non e' che con una 3060/3070 oggi vai piu' lontano ripetto a una 6700/6800)
No anzi, le 3060Ti/3070 prendono schiaffi pure dalla 6700 XT appena gli 8GB si saturano, e il web è pieno di gente insoddisfatta che si lamenta. Io stesso ho dovuto ripiegare su una 6800 e mi sono tolto dalle scatole la 3070 che adesso si gira i pollici nel secondo PC.
Cromwell
06-02-2025, 08:55
A me sembra che qua quelli che cambiano scheda ogni anno, non sono quelli che prendono le "patacche" ma mi sembra di vedere che sono proprio quelli che prendono le top gamma e spendono 2000€ ogni anno per avere l'ultima superpowamegauberwow!
No anzi, le 3060Ti/3070 prendono schiaffi pure dalla 6700 XT appena gli 8GB si saturano, e il web è pieno di gente insoddisfatta che si lamenta. Io stesso ho dovuto ripiegare su una 6800 e mi sono tolto dalle scatole la 3070 che adesso si gira i pollici nel secondo PC.
Si, infatti io all'epoca scelsi la 6700XT con 12GB di VRAM in "prospettiva" futura e ad oggi sicuramente e' piu' longeva rispetto alle sue concorrenti dell'epoca.
Ne e' un esempio gli ultimi giochi come indiana jones, giocato al day 1 tutto su SUPREMO con le VULKAN che lo fanno girare benissimo, cosa che non si puo' dire per i possessori NVIDIA di pari livello.;)
A me sembra che qua quelli che cambiano scheda ogni anno, non sono quelli che prendono le "patacche" ma mi sembra di vedere che sono proprio quelli che prendono le top gamma e spendono 2000€ ogni anno per avere l'ultima superpowamegauberwow!
Sicuramente chi si puo' permettere di spendere somme ingenti non ha problemi a cambiarla ad ogni cambio generazionale.
Rappresentano pero' una minoranza rispetto a chi acquista le versione piu "piccole"
CrapaDiLegno
06-02-2025, 10:08
A me sembra che qua quelli che cambiano scheda ogni anno, non sono quelli che prendono le "patacche" ma mi sembra di vedere che sono proprio quelli che prendono le top gamma e spendono 2000€ ogni anno per avere l'ultima superpowamegauberwow!
Chi vuole il massimo ovviamente prende il massimo appena è disponibile, con tutte le conseguenze del caso, ovvero creare scalper.
Dall'altra parte ci sono quelli che si accontentano spendendo "poco", poi però si ritrovano schede che rimangono al palo con le nuove funzionalità.
Mi torna in mente tutta la polemica su Turing vs RDNA1. Qualcuno davvero pensa che la 5700XT sia stata una scelta intelligente al tempo?
Sono con te sulla prima parte ma non sull'ultima dove scrivi che chi ha investito su schede AMD le deve cambiare ogni anno. Alla fine dipende sempre cosa cerchi, come giochi, a che risuluzioni e cosa ti aspetti da una scheda, domande che in molti non si fanno mai comprando solo leggendo la marca sulla scatola (non e' che con una 3060/3070 oggi vai piu' lontano ripetto a una 6700/6800).
Dipende da cosa intendi "andare più lontano".
Con una 3000 oggi ottieni DLSS migliore e supporto RT migliore di qualsiasi scheda 6xxx. Appena attivi una opzione qualsiasi di RT le 6000 muoiono sul posto, qualsiasi sia la quantità di RAM che possiedono.
Certo, se ti basta rimanere con il raster e basta, anche quelle vanno bene, ma ci si chiede allora perché si è sborsato così tanti soldi, perché comunque non sono economiche in assoluto, per restare in quel recinto.
Alla fine ti accontenti consolandoti di aver speso meno, non poco, ma non puoi dire che qualsiasi FSR sia minimamente comparabile con quanto riesce a fare Nvidia.
Con questo NON sto difendnedo AMD, che NVIDIA sia avanti e' innegabile e quello che mi sono sempre chiesto e' perche' AMD non riesca (o non vuole) a progettare una GPU con una parte dedicata alla gestione dell' RT cosi' come fa NVIDIA e potersela giocare.
Siccome in AMD non sono incapaci e le unità di calcolo avanzate le sanno fare come dimostra CDNA, la risposta che rimane è semplice: le console.
AMD ha fatto una architettura per le console che era già obsoleta quando è stata adottata e quello è il suo vincolo ad ogni generazione delle scatolette.
L'unica cosa che permette alle sue GPU di funzionare ancora degnamente è il supporto dei motori dei giochi ottimizzati per la sua architettura presente nelle console. Se mancasse quel supporto, e i programmatori si mettessero a ottimizzare per l'architettura Nvidia, oppure più genericamente per una architettura con più funzionalità avanzate, sarebbe un disastro completo.
Quindi non può permettersi di fare una architettura che sia diversa da quella per cui sono ottimizzati i giochi. Puoi vederlo bene come è evoluto RDNA. E' sempre la stessa solfa, solo più grande dove sono stati aggiunti delle unità RA il cui funzionamento lascia molto a desiderare perché unità non pensate per essere pienamente integrate nell'architettura che andrebbe profondamente cambiata per supportare il BVH come si deve.
Che sono poi le unità aggiunte alla PS5 Pro per evitare che i giochi dovessero essere rifatti e ri-ottimizzati per una eventuale architettura diversa.
I tensor core proprio non possono esserci fino a quando arriverà la PS6, quindi forse nel 2028. 10 anni dopo Turing. E non è un problema di non poter aggiungere funzionalità, ma proprio di architettura in generale. AMD sta mettendo le pezze all'uso di calcoli matriciali come semplice aggiunta alle istruzioni degli shader, ma sono aggiunte che possono essere usate solo per estensioni su PC, mentre le console ne devono fare a meno. Se aggiungesse unità matriciali, magari insieme a RA più evoluti, dovrebbe cambiare il modo in cui le CU funzionano e addio alle ottimizzazioni di cui gode per affidarsi a nuove ottimizzazioni ad-hoc fatte dagli sviluppatori, come avviene per Nvidia.
Solo che Nvidia ha il 90% del mercato desktop dei PC e quindi qualcosa in più ha senso sviluppare per lei, dopo essere stata snobbata a livello di ottimizzazioni nel motore del gioco.
L'ultima altra cosa che impedisce a AMD di aggiungere nuove unità di calcolo è il budget dei transistor e dei consumi. AMD è già parecchio indietro in termini di prestazioni/area prestazioni/W rispetto ad Nvidia. Aumentare il numero dei transistor non farebbe altro che far esplodere i costi delle sue GPU, e sappiamo bene come le piace fare competizione a suon di sconti. Talvolta ancora prima di lanciare il prodotto stesso.
Dipende da cosa intendi "andare più lontano".
Con una 3000 oggi ottieni DLSS migliore e supporto RT migliore di qualsiasi scheda 6xxx. Appena attivi una opzione qualsiasi di RT le 6000 muoiono sul posto, qualsiasi sia la quantità di RAM che possiedono.
Certo, se ti basta rimanere con il raster e basta, anche quelle vanno bene, ma ci si chiede allora perché si è sborsato così tanti soldi, perché comunque non sono economiche in assoluto, per restare in quel recinto.
Alla fine ti accontenti consolandoti di aver speso meno, non poco, ma non puoi dire che qualsiasi FSR sia minimamente comparabile con quanto riesce a fare Nvidia.
L' RT era ingestibile dalla serie 2000, come anche per la serie 3000, escludendo forse la 3090. Il Primo DLSS aiutava ma la qualita' grafica non era paragonabile a un raster sparato al max su tutto a livello visivo, le schede dovevano comunque scendere a compromessi e serviva comunque potenza quindi con le piu' piccole l'RT era un miraggio come per la serie 6000.
Forse con versioni successive e la serie 4000 le cose sono un po cambiate ma anche qui si deve capire su quale versione di scheda tu vuoi attivare l'RT e il DLSS.
L'avvento dei FRAME GENERATOR di ultima generazione alla fine e' riuscito a colmare quel buco di presazioni che separava la scheda top di gamma con le altre, FPS a parte, rendedno giocabile cio' che prima non lo era, ma anche qui bisogna saperlo utilizzare.
Personalmente e stuzzicato da queste cose ho provato CP2077 con le ultime novita' FSR 3.1 (aspettiamo la 4) su Qualita' + RT, senza patch RT e sparato tutto su ALTO/ULTRA, be' il gioco e' godibilissimo anche con la 6700xt anche se RT o non RT quando stai a certe risoluzioni o ti metti a contemplare sfumatura x sfumatura ogni frame oppure neanche te ne accorgi.
Oggi RT a parte con i frame generetar di ultima generazione avere piu' VRAM a disposizione e' un bene altro che, certo questa tecnologia sempre piu' affinata, aiuta tantissimo se utilizzata in maniera corretta altrimenti viene fuori solo un pastrocchio visivo (per intenderci quete tecnologie andrebbero attivate solo su giochi che partono da ALMENO 60FPS senza il loro utilizzo).
Lato console sicuramente AMD e' legata a quella che e' una tecnologia oramai obsoleta ma non puoi certo dare colpa a lei. Ricordo che ogni console quando esce e' sempre vecchia rispetto alle tecnologie del giorno di presentazione per ovvi motivi.
StylezZz`
06-02-2025, 12:39
La 5700 XT te la portavi a casa a 380/400€ nuova, 550€ per la 2070 Super più scrausa. Fosse stata poca la differenza di prezzo allora col senno di poi la RTX sarebbe stata la scelta migliore, ma a questo prezzo non vedo chissà quale perdita per chi ha preso una 5700 che rimane comunque un ottima scheda rinunciando a qualche gioco full rt come Indiana Jones.
La 5700 XT te la portavi a casa a 380/400€ nuova, 550€ per la 2070 Super più scrausa. Fosse stata poca la differenza di prezzo allora col senno di poi la RTX sarebbe stata la scelta migliore, ma a questo prezzo non vedo chissà quale perdita per chi ha preso una 5700 che rimane comunque un ottima scheda rinunciando a qualche gioco full rt come Indiana Jones.
Io ho un 5700 pagata 100€ miglior acquisto fatto ultimamente :asd:
Presa tempo fa perchè ho dato al mia al figlio che ormai gioca più di me, però avrò la scusa per compare le nuove, ma non 5070/80/90 ne 9070, non vale la pena per me spendere quelle cifre ormai.
Magari una 9060/5060 vediamo chi propone la scheda più buona al prezzo più ragionevole, tanto non ho fretta.
CrapaDiLegno
06-02-2025, 17:03
L' RT era ingestibile dalla serie 2000, come anche per la serie 3000, escludendo forse la 3090. Il Primo DLSS aiutava ma la qualita' grafica non era paragonabile a un raster sparato al max su tutto a livello visivo, le schede dovevano comunque scendere a compromessi e serviva comunque potenza quindi con le piu' piccole l'RT era un miraggio come per la serie 6000.
Forse con versioni successive e la serie 4000 le cose sono un po cambiate ma anche qui si deve capire su quale versione di scheda tu vuoi attivare l'RT e il DLSS.
Il fatto è che le schede Nvidia vengono con 2 feature HW che AMD non ha: il supporto all'RT e allo scaling. Vero che le 2060 facevano fatica ad usare il RT, ma il DLSS è stato messo per quello.
Se in CB2077 in solo raster la 2060 fa esattamente lo stesso numero di frame della 5700XT e poco meno della 6600 (scheda una generazione più nuova) appena attivi l'RT la 2060 va come una 6600XT. La tanto bistrattata 4060 raggiunge la 6800XT, e questo senza attivare il DLSS che è un'arma in più ancora.
La differenza tra le schede Nvidia e AMD è che con le prime, se si fa qualche sacrificio, funzionano anche i giochi moderni con le feature avanzate, con le seconde sei al palo come quando le hai comprate.
Oggi RT a parte con i frame generetar di ultima generazione avere piu' VRAM a disposizione e' un bene altro che, certo questa tecnologia sempre piu' affinata, aiuta tantissimo se utilizzata in maniera corretta altrimenti viene fuori solo un pastrocchio visivo (per intenderci quete tecnologie andrebbero attivate solo su giochi che partono da ALMENO 60FPS senza il loro utilizzo).
Come hai bene dimostrato tu, stiamo parlando di schede che sono acquistate sapendo che non si può andare tanto avanti i settaggi e che ci sono sempre dei compromessi da fare.
Ora venire a dire che servono più di 8GB di memoria con il FullHD perché altrimenti il tal gioco che è rotto di suo non gira correttamente ma con 12/16GB va il 5% meglio è davvero voler trovare qualcosa da ridire ad una line-up di schede Nvidia che ha asfaltato le controparti AMD anche se queste hanno più memoria e costano meno. E costano meno perché danno meno, non c'è modo di girare la frittata per negare la cosa.
Su tutte c'è l'esempio della 4060Ti in doppia versione, 8 e 16GB. La 16GB porta vantaggi nulli rispetto alla prima e là dove si riesce a far saturare gli 8GB di memoria le prestazioni sono così basse anche sulla 16GB che comunque si è costretti a tagliare qualcosa e quindi a risparmiare sulla RAM, al punto che 8GB tornano ad essere sufficienti.
Lato console sicuramente AMD e' legata a quella che e' una tecnologia oramai obsoleta ma non puoi certo dare colpa a lei. Ricordo che ogni console quando esce e' sempre vecchia rispetto alle tecnologie del giorno di presentazione per ovvi motivi.
Lato console il problema sta tutto lì: il legame necessario tra i giochi sviluppati e ottimizzati per quell'architettura e quella che poi metti nel mercato PC. Se sono diverse ti giochi le ottimizzazioni e oltre alle funzionalità di Nvidia ti tocca anche combattere anche con una sistemazione dei driver che AMD ha dimostrato di gestire non propriamente al meglio.
Renditi conto di come funziona bene la tecnologia Nvidia nonostante i motori siano ottimizzati al massimo per girare sulle console. Pensa a come girerebbero i giochi se invece fossero ottimizzati per la sua di architettura.
La 5700 XT te la portavi a casa a 380/400€ nuova, 550€ per la 2070 Super più scrausa. Fosse stata poca la differenza di prezzo allora col senno di poi la RTX sarebbe stata la scelta migliore, ma a questo prezzo non vedo chissà quale perdita per chi ha preso una 5700 che rimane comunque un ottima scheda rinunciando a qualche gioco full rt come Indiana Jones.
Punti di vista su cosa si intende per "risparmio".
La 2070 funziona anche se attivi una opzione che usa RT, la 5700XT la puoi usare come fermacarte. Se infine si attiva il DLSS sulla 2070, la 5700XT rimane nell'era geologica.
Significa che oggi con una 2070 fai molti meno compromessi per avere delle prestazioni decenti anche con giochi molto pesanti.
La 5700XT era una scheda obsoleta quando è stata lanciata ed è normale che sia invecchiata male, Certo anche oggi funziona, ma peggio delle corrispondenti Nvidia del suo stesso tempo.
controllando le specifiche su un noto sito tech****up che possiede il database di tutte le vga ,ho notato una cosa strana, vengo al dunque: io posseggo una 7800 xt con potenza di calcolo di circa 37 tflop in singola precisione. so che in una gpu la potenza di calcolo non è tutto va aggiunta all architettura e tutto il resto, comunque nella sezione riguardante la potenza di calcolo della 9070 xt viene riportato 22 tflop ,direi che si tratta di un refuso,come puo avere 45% circa di potenza di calcolo in meno...mi sembra quantomeno singolare, se avete delucidazioni in merito, vorrei un chiarimento..grazie a tutti.
controllando le specifiche su un noto sito tech****up che possiede il database di tutte le vga ,ho notato una cosa strana, vengo al dunque: io posseggo una 7800 xt con potenza di calcolo di circa 37 tflop in singola precisione. so che in una gpu la potenza di calcolo non è tutto va aggiunta all architettura e tutto il resto, comunque nella sezione riguardante la potenza di calcolo della 9070 xt viene riportato 22 tflop ,direi che si tratta di un refuso,come puo avere 45% circa di potenza di calcolo in meno...mi sembra quantomeno singolare, se avete delucidazioni in merito, vorrei un chiarimento..grazie a tutti.
Ma se non è ancora uscita come fa TPU a sapere già esattamente che potenza di calcolo ha?
Sarà frutto di un leak, un valore provvisorio o frutto di un calcolo a spanne.
cronos1990
14-02-2025, 12:55
Chi vuole il massimo ovviamente prende il massimo appena è disponibile, con tutte le conseguenze del caso, ovvero creare scalper.
Dall'altra parte ci sono quelli che si accontentano spendendo "poco", poi però si ritrovano schede che rimangono al palo con le nuove funzionalità.
Mi torna in mente tutta la polemica su Turing vs RDNA1. Qualcuno davvero pensa che la 5700XT sia stata una scelta intelligente al tempo?La 5700XT (e parlo da possessore) è stata una scelta intelligente all'epoca, e per svariati motivi.
In quel periodo c'erano ancora le 2xxx di Nvidia che non erano in grado di gestire l'RT adeguatamente, si trattava di una "novità" appena approdata nel mondo videoludico (in realtà l'RT esisteva da ben prima, ma lasciamo perdere). E per dirla tutta neanche le 3xxx venute in seguito, con la sola eccezione della 3090. Solo con le 4xxx e le relative tecnologie (tra nuove e quelle aggiornate) si è iniziato davvero ad avere qualcosa di concreto tra le mani, così come ad avere un buon numero di videogiochi che lo supportavano e non limitandosi ad una manciata di effetti minori ammazza-frames.
Per cui, al netto di quelli che spendono sempre il massimo per il meglio disponibile (2070Ti, 3090, 4090, 5090... chiaramente AMD non esiste affatto in tal senso), tra le varie possibilità offerte dal mercato la 5700XT fu un'ottima scheda, che di fatto aveva prestazioni paritetiche alla 2070SUPER di Nvidia uscita in periodo analogo, ma costando 150-200 euro di meno. Facevi a meno dell'RT, ma appunto l'RT in quel momento era più una chimera che altro, e di sicuro la 2070SUPER non era in grado di gestirlo.
Poi chiaro, parliamo di una scheda adatta per risoluzioni fino a 2K, ma a meno di non usare il proprio cervello (cosa che in realtà capita fin troppo spesso :asd: ) la scelta la fai anche sulla base delle tue esigenze e disponibilità. Chiaro che se giochi in 4K nativi, RT e quant'altro ritorniamo al punto sopra per cui a quel punto spendi senza guardare il portafoglio per il meglio.
E senza quotare anche le tue risposte successive: mi spiace, ma anche col DLSS all'epoca ci facevi una fava, perchè comunque non ci gestivi l'RT con quelle schede, e lo facevi a stento con le stesse 3xxx.
Perchè poi il discorso è tutto li: il problema non sono le prestazioni raster, ma quelle per l'RT. E per avere una scheda che, tra parte hardware e parte software, fosse seriamente capace gi gestirlo, si è dovuti appunto aspettare la serie 4xxx (a meno, ripeto, di prendere una 3090 ma appunto a 2000 euro).
Il discorso lungimiranza qui lascia il tempo che trova, tra la serie 4xxx e la 5700XT ci passano 3 anni. Avrei dovuto comprarmi una 2070SUPER spendendo 200 euro di più per avere prestazioni analoghe e avendo comunque una GPU che ad oggi anche con le ultime novità lato software NON è in grado di gestire l'RT?
Non solo: sebbene già con la serie 2xxx di Nvidia si stavano iniziando ad innalzare i prezzi, fu con la serie 3xxx che ci fu l'esplosione definitiva, con listini di fatto quasi raddoppiati rispetto alla precedente generazione, per cui con la 5700XT non solo ti prendevi una scheda con un ottimo rapporto qualità/prezzo, ma di fatto anche l'ultima (o una delle ultime) che ancora aveva un prezzo "umano".
A questo aggiungiamoci il fatto che, per diversi motivi (alcuni legati al mercato, altri alla presenza delle console, altri a motivi tecnologici, altri alle scelte delle SH e dei publisher) ad oggi ancora è una scheda che ha prestazioni ben più che soddisfacenti anche in giochi che comunque richiedono molte risorse, con pochi compromessi a riguardo.
Solo a distanza di 5 anni, ere geologiche in informatica e ancor più per quanto riguarda le GPU, si inizia ad intravedere la necessità (se così si può dire) di cambiarla, dato che iniziano ad uscire giochi che richiedono l'RT obbligatoriamente, vedasi Indiana Jones.
Ma per chi appunto non spende tranquillamente 2000 euro l'anno per ogni cambio generazionale, avere una GPU che è durata per oltre 5 anni e perdendo al contempo molto meno a livello prestazionale con l'uscita di giochi sempre più recenti rispetto alle GPU che si vendevano prima, è un ulteriore vantaggio. E ancora oggi, se si vuole continuare a fare a meno dell'RT, ci giochi bene in 2K.
Poi parliamoci chiaro: sono anni che dico che se uno vuole videogiocare sul PC l'unica alternativa è Nvidia. Già con la serie 3xxx c'era un solco evidente, AMD che era appena rientrata è rimasta indietro proprio nel campo dell'RT e delle nuove tecnologie software (e si è scavata la fossa proponendo GPU a prezzi sostanzialmente similari alla controparti verde già con quella generazione).
Ma per chi ha acquistato quando è uscita la 5700XT, non solo con quella scheda ha fatto una scelta azzeccata, ha proprio centrato la perfetta congiunzione astrale.
Il problema è che una rondine non fa primavera. Non a caso ora, che sto progettando un upgrade totale del sistema PC, la scelta sulla marca della GPU non è in discussione.
Il problema è che per una volta volevo essere meno "conservativo" lato spese, cercando qualcosa in più lato prestazioni., ma poi mi ritrovo a voler cercare una 5070Ti (attendo benchmark) che solo quella mi verrà a costare una cifra che reputo assurda, nella speranza poi che non sfori i 900 euro (come no :asd: ). E se mai sforasse i 1000 euro, a quel punto la scelta più logica sarebbe andarsi a prendere una 5080FE...
...sempre che poi si trovino queste schede.
Il fatto è che le schede Nvidia vengono con 2 feature HW che AMD non ha: il supporto all'RT e allo scaling. Vero che le 2060 facevano fatica ad usare il RT, ma il DLSS è stato messo per quello.
Se in CB2077 in solo raster la 2060 fa esattamente lo stesso numero di frame della 5700XT e poco meno della 6600 (scheda una generazione più nuova) appena attivi l'RT la 2060 va come una 6600XT. La tanto bistrattata 4060 raggiunge la 6800XT, e questo senza attivare il DLSS che è un'arma in più ancora.Ma non spariamo cazzate.... eh :asd:
Per scegliere quale GPU acquistare all'epoca mi son letto decine di recensioni, letto benchmark di svariate decine di giochi e di tutti i siti/riviste possibili immaginabili, facendo attenzione a come venivano condotti i test, l'affidabilità delle testate e facendo attenzione a quei 2-3 giochi fortemente PRO-Nvidia e PRO-AMD.
E la 5700XT andava mediamente un 4% in meno di una 2070SUPER, ma con driver ancora acerbi mentre la scheda Nvidia li aveva perfettamente ottimizzati, e infatti con i vari aggiornamenti (testato personalmente) le prestazioni della 5700XT sono sempre migliorate. Chiaro, senza RT. Ma appunto l'RT non lo gestisci neanche con la 2070SUPER, neanche con il DLSS e le altre menate, uscite comunque a distanza di anni dopo.
Su CP2077, forse il gioco più pesante che abbia mai giocato e comunque uno di quelli che ancora mette più alla frusta l'hardware (Alan Wake 2 si trova solo su Epic Store per cui non lo prenderò mai, ci sono altri 2-3 titoli che possono essere più pesanti al momento ma finisce li), in 2K con impostazioni tra alte e massime stavo sui 40-45 FPS, col gioco ancora non ottimizzato (ci son voluti 2 anni per sistemarlo, ricordo) e nel centro di Night City quando era pieno di gente ed effetti a schermo, la situazione peggiore. E senza l'FSR che all'epoca non esisteva.
RDR2 stavo sui 60 FPS, con cali solo nella città principale (calavano a 40-30 in quella situazione). Horizon impostato tutto al massimo o quasi 60 FPS. Questo andando a memoria.
Il discorso che fai non ha alcun senso ed è fatto oltretutto a posteriori di 5 anni rispetto alla situazione di mercato di quando è uscita la 5700XT, anzi la travisi parlando delle schede Nvidia di quel periodo di fascia analoga come se fossero chissà che cosa ad oggi con il DLSS, il FG e quant'altro. Anche perchè io la scheda in questi 5 anni l'ho sfruttata e potrei ancora tranquillamente farlo.
Il fatto che ad oggi una 2070SUPER vada un poco meglio grazie al DLSS (ma per solo quello basta e avanza la controparte AMD con l'FSR) lascia il tempo che trova. Il valore aggiunto sarebbe appunto l'RT, ma quello con la 2070SUPER non lo sfrutti in ogni caso.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.