Radeon RX 7900 XT vs GeForce RTX 4090: una sfida da 100 TFLOPs?
Secondo le ultime indiscrezioni, le future ammiraglie di AMD e NVIDIA raggiungeranno una potenza di calcolo FP32 vicina se non superiore a 100 TFLOPs. Per AMD si tratterebbe di un balzo di 4 volte, per NVIDIA di circa 2,5 volte rispetto alle top di gamma attuali.
di Manolo De Agostini pubblicata il 02 Maggio 2022, alle 08:51 nel canale Schede VideoNaviRDNAAMDRadeonGeForceLovelaceNVIDIAgaming hardware
La battaglia tra AMD e NVIDIA per quanto riguarda le schede video di prossima generazione potrebbe riservarci uno scontro "ad alta quota", a circa 100 TFLOPs. Stando alle ultime indiscrezioni dei leaker Greymon55 e Kopite7kimi, la potenza delle future top di gamma potrebbe far impallidire le proposte di attuale generazione.
≈92T FP32
— Greymon55 (@greymon55) April 30, 2022
L'attuale Radeon RX 6900 XT raggiunge una potenza di calcolo FP32 di circa 23 TFLOPs, mentre l'ipotetica Radeon RX 7900 XT basata su GPU Navi 31 potrebbe arrivare a toccare i 92 TFLOPs. La nuova soluzione di AMD dovrebbe offrire un massimo di 15360 stream processor grazie a un progetto di tipo MCM e lavorare a una frequenza vicina, se non superiore, ai 3 GHz.
I can only say that the two products have improved a lot compared to their predecessors, but if you want to ask me directly which one is better, I'm sorry I can't answer, because no one knows the specific improvement by percentage.
— Greymon55 (@greymon55) April 30, 2022
Per quanto riguarda invece l'ipotetica GeForce RTX 4090 basata su GPU AD102, i leaker non si spingono a indicare un numero in particolare, ma ritengono che avrà le carte in regola per superare il muro dei 100 TFLOPs. Per riferimento, la GeForce RTX 3090 Ti tocca i 40 TFLOPs.
Il balzo in avanti delle proposte AMD e NVIDIA sarebbe quindi rispettivamente pari a 4 volte nel caso del passaggio dal 6900 XT a 7900 XT e 2,5 volte in quello dalla RTX 3090 Ti alla RTX 4090.
Il parametro della potenza FP32 non è detto che scali linearmente in prestazioni di gioco, ed è solo un tassello di un quadro decisamente più complesso che vedrà le soluzioni scontrarsi su molti fronti, dalle prestazioni in ray tracing alle tecnologie di upscaling fino ai consumi che si preannunciano davvero elevati.
To be honest, I don't have much information about AMD. Maybe Lisa and Jensen's competition will give us a 100TFLOPS gaming war in a few months.
— kopite7kimi (@kopite7kimi) April 29, 2022
Per raggiungere la potenza di 100 TFLOPs o più, la GPU AD102 di NVIDIA dovrebbe operare a oltre 2,7 GHz. Il chip dovrebbe avere 18432 CUDA core nella sua forma completa, ma probabilmente la top di gamma di NVIDIA farà un uso solo parziale delle piene potenzialità della GPU. Al momento non è chiaro se l'ipotesi dei "100 TFLOPs e oltre" si riferisca alla GPU completamente attiva o no.
NVIDIA sta testando una GeForce RTX 4000 da 900 Watt? O forse ritorna la TITAN RTX?













HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Il telescopio spaziale James Webb ha catturato un'immagine del buco nero al centro della Galassia del Compasso
Il razzo spaziale europeo Ariane 6 lancerà i primi satelliti Amazon Leo il 12 febbraio
Il lander lunare Blue Origin Blue Moon MK1 ha superato la prova da 138 dB, ora si passerà ad altri test
Gli LLM riescono a risolvere problemi matematici complessi: cosa significa e perché è importante
Smettila con quei cioccolatini. Per San Valentino regala un mouse di Steelseries
Il secondo lancio del razzo spaziale europeo Spectrum di Isar Aerospace potrebbe avvenire il 21 gennaio
MaiaSpace ed Eutelsat stringono un accordo per lanciare satelliti OneWeb a partire dal 2027
Motorola edge 60 neo sorprende: compatto, costa il giusto e la batteria dura tantissimo
Zeekr 007 e 007GT si aggiornano: piattaforma a 900 volt e nuovo chip NVIDIA Thor-U da 700 TOPS
ASUS ROG Swift OLED PG27AQWP-W: 720 Hz e 0,02 ms bastano per il gaming competitivo?
È super il prezzo del robot rasaerba Bosch Indego S+ 500: ora è al minimo storico su Amazon
MediaTek aggiorna la gamma di Dimensity: tra le novità c'è il 9500s a 3 nm
Foto intime sottratte dai telefoni in riparazione e finite su Telegram: a Rovigo nuovo caso dopo 'Mia Moglie'
In Cina approvate nuove regole per il riciclaggio delle batterie per auto elettriche









20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoCerto che con queste nuove schede in abbinamento ai nuovi motori grafici tipo UE5 praticamente a livello grafico non ci sono piu' limiti, a parte quelli della bravura dei designer a fare modelli realistici (non a caso Epic punta molto sulla tecnologia metahuman, anche se a mio avviso siamo ancora lontani dal fotorealismo)..
Se i consumi saranno quelli dichiarati spero di riuscire a fare un postazione con GPU esterna
Ma se tutti i giochi sono sviluppati per le console con GPU AMD, che altra ottimizzazione servirebbe?
Comunque i consumi saliranno di brutto per entrambe. I PP non garantiscono più un risparmio energetico proporzionale alla densità.
Fino ai GAAFET non ci sarà molta speranza per un miglioramento in tal senso.
Poi ci sarà un balzo e poi ancora forse una nuova corsa all'aumento dei consumi per migliorare le prestazioni.
P.S: i TFLOPS contano fino a un certo punto. Bisogna vedere se tutto il resto dell'architettura fixed function segue le potenzialità che gli shader hanno.
Se però Nvidia farà schede da 800W e tutti correrano a comprarle, con la prossima gen arriveremo a 1000...
L'ottimizzazione su PC non c'è mai stata realmente.
E' da 20 anni e passa che è l'HW ad adattarsi al software tramite un elevata potenza di calcolo.
Se però Nvidia farà schede da 800W e tutti correrano a comprarle, con la prossima gen arriveremo a 1000...
Anche perchè per chi come me ha un UPS da 700w non ha voglia di cambiarlo per un scheda video XD
Se però Nvidia farà schede da 800W e tutti correrano a comprarle, con la prossima gen arriveremo a 1000...
Questo è vero fino ad un certo punto.
Se voglio una scheda grafica più potente di quella che ho oggi devo vedere cosa offre il mercato: se Nvidia ne fa una da 800W e AMD con le stesse prestazioni una da 300W, allora posso decidere di prendere quella che consuma meno e lasciare le robe obsolete sullo scaffale, ma se Nvidia me ne fa una da 800W e AMD una da 750 o da 850W, la mia scelta è "obbligata". A meno che non decida di non voler aggiornare la scheda grafica.
Se il mercato offre a parità di consumi di 300W schede migliori della mia, trovo giusto a questo punto ignorare le robe create per il non plus ultra del momento con consumi astronomici solo per seguire la moda della barretta colorata più lunga di qualche millimetro.
La 4090 non potranno mica venderla al prezzo della 3090 e neanche della 3090ti e quindi? 3500?4000? Ci ritroveremo tra 4/5 anni con schede che costano 6000 euro??? Poi apple sarebbe caro? Non sono pratico della mela ma riuscisse a far girare qualsiasi gioco o apicazione windows sarei il primo a migrare...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".