Radeon RX 7900 XT vs GeForce RTX 4090: una sfida da 100 TFLOPs?

Secondo le ultime indiscrezioni, le future ammiraglie di AMD e NVIDIA raggiungeranno una potenza di calcolo FP32 vicina se non superiore a 100 TFLOPs. Per AMD si tratterebbe di un balzo di 4 volte, per NVIDIA di circa 2,5 volte rispetto alle top di gamma attuali.
di Manolo De Agostini pubblicata il 02 Maggio 2022, alle 08:51 nel canale Schede VideoNaviRDNAAMDRadeonGeForceLovelaceNVIDIAgaming hardware
20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSe voglio una scheda grafica più potente di quella che ho oggi devo vedere cosa offre il mercato: se Nvidia ne fa una da 800W e AMD con le stesse prestazioni una da 300W, allora posso decidere di prendere quella che consuma meno e lasciare le robe obsolete sullo scaffale, ma se Nvidia me ne fa una da 800W e AMD una da 750 o da 850W, la mia scelta è "obbligata". A meno che non decida di non voler aggiornare la scheda grafica.
Se il mercato offre a parità di consumi di 300W schede migliori della mia, trovo giusto a questo punto ignorare le robe create per il non plus ultra del momento con consumi astronomici solo per seguire la moda della barretta colorata più lunga di qualche millimetro.
Tutto vero quello che dici, mi aspetto che entrambe usando processi produttivi più raffinati, abbiano una migliore efficienza rispetto ai progetti attuali, quindi dovremmo trovare schede da 300W che vanno meglio di 6900XT/3090. Però secondo me abbiamo ormai raggiunto un tale livello di prestazioni e di grafica nei giochi che l'upgrade della scheda video è sempre meno necessario.
Per esempio io vado ancora avanti con una Vega 64, che nonostante l'età mi ha fatto giocare ad esempio a Resident Evil Village, in Full HD ad oltre 100FPS con impostazioni grafiche medie, certo, non ero in 4K, non avevo il Ray Tracing, non avevo i dettagli su "Ultra", ma l'esperienza di gioco mi sarebbe davvero cambiata così tanto con una scheda più moderna (io dico di no visto che la grafica mi sembrava comunque notevole)? Cioè oggi giorno in troppi aggiornano più per sfizio che per necessità e il risultato sono consumi e prezzi alle stelle.
La 4090 non potranno mica venderla al prezzo della 3090 e neanche della 3090ti e quindi? 3500?4000? Ci ritroveremo tra 4/5 anni con schede che costano 6000 euro??? Poi apple sarebbe caro? Non sono pratico della mela ma riuscisse a far girare qualsiasi gioco o apicazione windows sarei il primo a migrare...
A parità di consumo i modelli con PP sono prestazionalmente superiori.
Una 3070 liscia accoppa una 2080 liscia.
Una RX6900XT stupra in modo efferato una Vega64 ( stesso TDP )
I modelli ad alto consumo semplicemente incrementano ulteriormente la performance rispetto alla vecchia gen rispetto a quanto già fà il solo passaggio al nuovo PP.
L'unica differenza che c'è stata nell'attuale generazione è che Nvidia è passata ad un PP meno raffinato rispetto a quello TSMC, infatti che meno di tutte ha guadagnato come efficienza. AMD i 300W li aveva già da prima con Vega e li ha mantenuti semplicemente.
Vedrai che anche le prossime schede avranno modelli da 220-250W aldilà dei valori raggiunti da una top di gamma.
Non vuoi gli 800W ? Compra una fascia inferiore !
Scopriremo la verità quando rilasceranno le schede e driver decenti,vedo che la mia 5700 liscia,con i driver è migliorata in prestazioni,eppure l'hardware è lo stesso,quindi queste indiscrezioni di solito le prendo con le pinze.
Non vuoi gli 800W ? Compra una fascia inferiore !
Infatti, per esempio la serie '70 è sempre stata il mio riferimento, ma a causa dei consumi valuterò solo '60/'60 Ti, tanto a 1440p mi bastano.
Il design MCM porterà numerosi vantaggi, a partire dal prezzo, ma questo Nvidia lo sa già da un pezzo: https://research.nvidia.com/publica...nce-scalability
Onestamente mi aspetto (come penso tutti) che Nvidia rimanga al top nella prossima generazione, ma se non riescono a uscire con un design MCM nel giro di un anno la vedo grigia. Pure Intel sembra messa a buon punto da questo punto di vista.
Il design MCM porterà numerosi vantaggi, a partire dal prezzo, ma questo Nvidia lo sa già da un pezzo: https://research.nvidia.com/publica...nce-scalability
Onestamente mi aspetto (come penso tutti) che Nvidia rimanga al top nella prossima generazione, ma se non riescono a uscire con un design MCM nel giro di un anno la vedo grigia. Pure Intel sembra messa a buon punto da questo punto di vista.
Il prezzo di produzione non necessariamente deve incidere sul prezzo di listino.
AMD potrebbe ( anzi sicuramente ) userà la stessa politica di prezzi attuali ma con margini superiori, in pratica ciò che risparmiano nel produrle lo riempono con i margini di guadagno ma lato utente non aspettarti miracoli, perchè i prezzi saranno basati sempre sui confronti con Nvidia.
Nvidia sarà MCM già dalla prossima gen ma solo lato enterprise, lato consumer lo sarà per la generazione dopo ancora.
AMD potrebbe ( anzi sicuramente ) userà la stessa politica di prezzi attuali ma con margini superiori, in pratica ciò che risparmiano nel produrle lo riempono con i margini di guadagno ma lato utente non aspettarti miracoli, perchè i prezzi saranno basati sempre sui confronti con Nvidia.
Nvidia sarà MCM già dalla prossima gen ma solo lato enterprise, lato consumer lo sarà per la generazione dopo ancora.
Non ho letto la notizia che lato enterprise offrirà un design MCM, di che si tratta esattamente?
Mi riferivo a questo https://twitter.com/Underfox3/statu...ukmD7TM0uf9C0TQ
Il design MCM porterà numerosi vantaggi, a partire dal prezzo, ma questo Nvidia lo sa già da un pezzo: https://research.nvidia.com/publica...nce-scalability
Onestamente mi aspetto (come penso tutti) che Nvidia rimanga al top nella prossima generazione, ma se non riescono a uscire con un design MCM nel giro di un anno la vedo grigia. Pure Intel sembra messa a buon punto da questo punto di vista.
L'MCM però introduce maggiore complicazione di connessione (latenze, energia, spazio per bus e cache) e costi di montaggio (mega substrati, precisione).
I costi non sono veramente così bassi, tanto che AMD i chiplet li fa con 8 core, non uno o due, e i suoi microprocessori più piccoli li fa monolitici (APU).
Quindi è vero che rimpicciolire qualcosa che è grande 800mm^2 ha un senso perché riduce la complessità e le difficoltà di produzione di quella mattonella, ma poi c'è una soglia sotto la quale i costi di interfacciamento e di montaggio e l'aumento di latenze e energia necessari per spostare i dati su die separati superano quelli di una soluzione monolitica.
I costi non sono veramente così bassi, tanto che AMD i chiplet li fa con 8 core, non uno o due, e i suoi microprocessori più piccoli li fa monolitici (APU).
Quindi è vero che rimpicciolire qualcosa che è grande 800mm^2 ha un senso perché riduce la complessità e le difficoltà di produzione di quella mattonella, ma poi c'è una soglia sotto la quale i costi di interfacciamento e di montaggio e l'aumento di latenze e energia necessari per spostare i dati su die separati superano quelli di una soluzione monolitica.
E' tutto scritto nel paper di Nvidia che ho postato qualche commento sopra, loro i calcoli li sanno fare bene
Le APU comunque sono monolitiche perchè la componente grafica non è ancora pronta, non perchè siano piccole. Il prossimo giro su AM5 saranno MCM anche quelle.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".