Radeon RX 7900 XT vs GeForce RTX 4090: una sfida da 100 TFLOPs?

Radeon RX 7900 XT vs GeForce RTX 4090: una sfida da 100 TFLOPs?

Secondo le ultime indiscrezioni, le future ammiraglie di AMD e NVIDIA raggiungeranno una potenza di calcolo FP32 vicina se non superiore a 100 TFLOPs. Per AMD si tratterebbe di un balzo di 4 volte, per NVIDIA di circa 2,5 volte rispetto alle top di gamma attuali.

di pubblicata il , alle 08:51 nel canale Schede Video
NaviRDNAAMDRadeonGeForceLovelaceNVIDIAgaming hardware
 

La battaglia tra AMD e NVIDIA per quanto riguarda le schede video di prossima generazione potrebbe riservarci uno scontro "ad alta quota", a circa 100 TFLOPs. Stando alle ultime indiscrezioni dei leaker Greymon55 e Kopite7kimi, la potenza delle future top di gamma potrebbe far impallidire le proposte di attuale generazione.

L'attuale Radeon RX 6900 XT raggiunge una potenza di calcolo FP32 di circa 23 TFLOPs, mentre l'ipotetica Radeon RX 7900 XT basata su GPU Navi 31 potrebbe arrivare a toccare i 92 TFLOPs. La nuova soluzione di AMD dovrebbe offrire un massimo di 15360 stream processor grazie a un progetto di tipo MCM e lavorare a una frequenza vicina, se non superiore, ai 3 GHz.

Per quanto riguarda invece l'ipotetica GeForce RTX 4090 basata su GPU AD102, i leaker non si spingono a indicare un numero in particolare, ma ritengono che avrà le carte in regola per superare il muro dei 100 TFLOPs. Per riferimento, la GeForce RTX 3090 Ti tocca i 40 TFLOPs.

Il balzo in avanti delle proposte AMD e NVIDIA sarebbe quindi rispettivamente pari a 4 volte nel caso del passaggio dal 6900 XT a 7900 XT e 2,5 volte in quello dalla RTX 3090 Ti alla RTX 4090.

Il parametro della potenza FP32 non è detto che scali linearmente in prestazioni di gioco, ed è solo un tassello di un quadro decisamente più complesso che vedrà le soluzioni scontrarsi su molti fronti, dalle prestazioni in ray tracing alle tecnologie di upscaling fino ai consumi che si preannunciano davvero elevati.

Per raggiungere la potenza di 100 TFLOPs o più, la GPU AD102 di NVIDIA dovrebbe operare a oltre 2,7 GHz. Il chip dovrebbe avere 18432 CUDA core nella sua forma completa, ma probabilmente la top di gamma di NVIDIA farà un uso solo parziale delle piene potenzialità della GPU. Al momento non è chiaro se l'ipotesi dei "100 TFLOPs e oltre" si riferisca alla GPU completamente attiva o no.

NVIDIA sta testando una GeForce RTX 4000 da 900 Watt? O forse ritorna la TITAN RTX?

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
jepessen02 Maggio 2022, 09:06 #1
Ho l'impressione che piu' che ai giochi sono design che puntano piu' al GPGPU computing, con la potenza di calcolo disponibile che diventa solo un "gradito" effetto collaterale per i videogiocatori...

Certo che con queste nuove schede in abbinamento ai nuovi motori grafici tipo UE5 praticamente a livello grafico non ci sono piu' limiti, a parte quelli della bravura dei designer a fare modelli realistici (non a caso Epic punta molto sulla tecnologia metahuman, anche se a mio avviso siamo ancora lontani dal fotorealismo)..
io78bis02 Maggio 2022, 09:22 #2
Ormai lo sviluppo si concentra sui data centro hoc con minime ricadute sul settore consumer, se non per i consumi.

Se i consumi saranno quelli dichiarati spero di riuscire a fare un postazione con GPU esterna
Cr4z3302 Maggio 2022, 09:27 #3
Tutto molto bello, ma, se non c'è un'ottimizzazione più diffusa nei giochi anche per schede Radeon, tutto questo non serve ad una ceppa purtroppo...
CrapaDiLegno02 Maggio 2022, 09:54 #4
Originariamente inviato da: Cr4z33
Tutto molto bello, ma, se non c'è un'ottimizzazione più diffusa nei giochi anche per schede Radeon, tutto questo non serve ad una ceppa purtroppo...


Ma se tutti i giochi sono sviluppati per le console con GPU AMD, che altra ottimizzazione servirebbe?

Comunque i consumi saliranno di brutto per entrambe. I PP non garantiscono più un risparmio energetico proporzionale alla densità.
Fino ai GAAFET non ci sarà molta speranza per un miglioramento in tal senso.
Poi ci sarà un balzo e poi ancora forse una nuova corsa all'aumento dei consumi per migliorare le prestazioni.

P.S: i TFLOPS contano fino a un certo punto. Bisogna vedere se tutto il resto dell'architettura fixed function segue le potenzialità che gli shader hanno.
Kyo7202 Maggio 2022, 10:19 #5
Con i consumi elettrici in aumento (proprio nel periodo sbagliato quando la corrente e' raddoppiata) si rischia di tornare ai tempi della Voodoo5 quando c'era la presa di corrente esterna con relativo alimentatore.
dav1deser02 Maggio 2022, 10:41 #6
La soluzione ai consumi è semplice, basta smettere di comprare schede video da 300W e più. Se ai produttori queste schede video restano sugli caffali perchè "consumano troppo" la gen successiva sarà più improntata all'efficienza energetica, magari con frequenze default più basse, che lasciano spazio a maggiori margini di OC.

Se però Nvidia farà schede da 800W e tutti correrano a comprarle, con la prossima gen arriveremo a 1000...
nickname8802 Maggio 2022, 10:56 #7
Originariamente inviato da: Cr4z33
Tutto molto bello, ma, se non c'è un'ottimizzazione più diffusa nei giochi anche per schede Radeon, tutto questo non serve ad una ceppa purtroppo...

L'ottimizzazione su PC non c'è mai stata realmente.
E' da 20 anni e passa che è l'HW ad adattarsi al software tramite un elevata potenza di calcolo.
Gandalf7602 Maggio 2022, 10:57 #8
Originariamente inviato da: dav1deser
La soluzione ai consumi è semplice, basta smettere di comprare schede video da 300W e più. Se ai produttori queste schede video restano sugli caffali perchè "consumano troppo" la gen successiva sarà più improntata all'efficienza energetica, magari con frequenze default più basse, che lasciano spazio a maggiori margini di OC.

Se però Nvidia farà schede da 800W e tutti correrano a comprarle, con la prossima gen arriveremo a 1000...


Anche perchè per chi come me ha un UPS da 700w non ha voglia di cambiarlo per un scheda video XD
CrapaDiLegno02 Maggio 2022, 11:35 #9
Originariamente inviato da: dav1deser
La soluzione ai consumi è semplice, basta smettere di comprare schede video da 300W e più. Se ai produttori queste schede video restano sugli caffali perchè "consumano troppo" la gen successiva sarà più improntata all'efficienza energetica, magari con frequenze default più basse, che lasciano spazio a maggiori margini di OC.

Se però Nvidia farà schede da 800W e tutti correrano a comprarle, con la prossima gen arriveremo a 1000...



Questo è vero fino ad un certo punto.
Se voglio una scheda grafica più potente di quella che ho oggi devo vedere cosa offre il mercato: se Nvidia ne fa una da 800W e AMD con le stesse prestazioni una da 300W, allora posso decidere di prendere quella che consuma meno e lasciare le robe obsolete sullo scaffale, ma se Nvidia me ne fa una da 800W e AMD una da 750 o da 850W, la mia scelta è "obbligata". A meno che non decida di non voler aggiornare la scheda grafica.

Se il mercato offre a parità di consumi di 300W schede migliori della mia, trovo giusto a questo punto ignorare le robe create per il non plus ultra del momento con consumi astronomici solo per seguire la moda della barretta colorata più lunga di qualche millimetro.
Bradiper02 Maggio 2022, 11:45 #10
Il processo produttivo rimpicciolisce sempre più ma si alzano consumi e prezzi.. Qualcosa è andato in corto circuito!non esistono più le regole del vecchio modello/nuovo e i prezzi non scalano più, si fanno forti della richiesta grazie ai miner.
La 4090 non potranno mica venderla al prezzo della 3090 e neanche della 3090ti e quindi? 3500?4000? Ci ritroveremo tra 4/5 anni con schede che costano 6000 euro??? Poi apple sarebbe caro? Non sono pratico della mela ma riuscisse a far girare qualsiasi gioco o apicazione windows sarei il primo a migrare...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^