View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
mikael84
25-09-2025, 12:23
Qua hanno testato la differenza tra FP8 e INT8.
https://www.youtube.com/watch?v=nSryNTfZu88
ho fatto la mia prima build con una 9070 XT
nonostante le insistenze per una 5070ti del compratore, ma non volevo
vediamo come se la cava con FSR4 e RT
Qua hanno testato la differenza tra FP8 e INT8.
https://www.youtube.com/watch?v=nSryNTfZu88
Qualitativamente parlando, visto così tramite YT, non mi sembra ci siano differenze.
ninja750
25-09-2025, 14:17
Qua hanno testato la differenza tra FP8 e INT8.
https://www.youtube.com/watch?v=nSryNTfZu88
ho zoomato i loro zoom e non vedo nessuna differenza, zero
in movimento meno di zero
insomma in un blind test impossibile stabilire quale delle due sia l'altro
per me è un risultato strepitoso se pensiamo l'hardware su cui gira e il modo raffazzonato con il quale viene provato
mikael84
25-09-2025, 14:45
Qualitativamente parlando, visto così tramite YT, non mi sembra ci siano differenze.
ho zoomato i loro zoom e non vedo nessuna differenza, zero
in movimento meno di zero
insomma in un blind test impossibile stabilire quale delle due sia l'altro
per me è un risultato strepitoso se pensiamo l'hardware su cui gira e il modo raffazzonato con il quale viene provato
Su the last of us 2 la differenza è evidente, alberi in lontanza, camper, ad esempio.
ninja750
25-09-2025, 15:14
Su the last of us 2 la differenza è evidente, alberi in lontanza, camper, ad esempio.
tlou2 non sembra fsr4
Su the last of us 2 la differenza è evidente, alberi in lontanza, camper, ad esempio.
TLOU2 mi sembra faccia abbastanza schifo il preset quality secondo me non sta lavorando FSR, balanced invece sempre uguale a FP8 e meglio del nativo (con TAA sicuro) basti guardare il radiatore del furgone.
Evilquantico
26-09-2025, 18:43
ho fatto la mia prima build con una 9070 XT
nonostante le insistenze per una 5070ti del compratore, ma non volevo
vediamo come se la cava con FSR4 e RT
Bravissimo , siamo la RESISTENZA :D , poi fai sapere come ti trovi e chiedi qui se hai dubbi/problemi che ti aiutiamo tutti
cristiankim
26-09-2025, 19:29
Si anche a me sembra che su 9000 nativo l'fsr4 sia leggermente migliore. Diciamo che magari con la release dei driver e l'implementazione ufficiale riusciranno a rendere impercettibile qualsiasi differenza.
Comunque alla fine ho provato FSR 4 con la rx5700 e si riesce ad abilitarlo in HZD remastered semplicemente sostituendo la DLL.
In game si può abilitare FSR 4 ma sostanzialmente non va, si vede a bassa risoluzione lampeggiante con aree nere non renderizzate.
Fa la stessa cosa con Vega
Ho provato con la mia sul muletto: optiscaler, driver vari, dll varie, niente, fa esattamente la stessa cosa.
Poco male comunque visto che il performance hit è bello pesante, non sarebbe stato utilizzabile.
Windtears
28-09-2025, 21:49
https://www.youtube.com/watch?v=fX893d_EmKU
amd sta cucinando tramite vari driver preview e update sdk:
1) supporto nativo su windows per pytorch con rocm 6.4 (non il 7)
2) hip ray tracing 3.0 che dovrebbe integrare ottimizzazioni lato RT per rdna4 come OBB
3) Distribuzione avanzata degli shader con il nuovo AGILITY SDK
EddieTheHead
29-09-2025, 15:19
tradotto x gli ignorantoni? :stordita:
ninja750
30-09-2025, 15:19
https://www.youtube.com/watch?v=fX893d_EmKU
amd sta cucinando tramite vari driver preview e update sdk:
1) supporto nativo su windows per pytorch con rocm 6.4 (non il 7)
2) hip ray tracing 3.0 che dovrebbe integrare ottimizzazioni lato RT per rdna4 come OBB
3) Distribuzione avanzata degli shader con il nuovo AGILITY SDK
4) ridisegnazione dell'apparato DGF
https://gpuopen.com/learn/animating-geometry-with-amd-dgf/
qualcuno provi a spiegarlo come fossimo bambini di 10 anni :help: :sofico:
Evilquantico
30-09-2025, 15:38
4) ridisegnazione dell'apparato DGF
https://gpuopen.com/learn/animating-geometry-with-amd-dgf/
qualcuno provi a spiegarlo come fossimo bambini di 10 anni :help: :sofico:
Mikael84 dove sei ??? abbiamo bisogno di capire :D
mikael84
30-09-2025, 17:26
Ho letto in modo veloce al momento, ma si parla di una tecnica di accelerazione BVH, ovvero la parte complessa nel RT per AMD perchè non ha pipeline hardware, ma è shader based.
DGF (Dense Geometry Format) un formato hardware-friendly per l'archiviazione di mesh triangolari compresse, ed è formato da 3 parti: un'intestazione, una parte geometrica (legata alla quantizzazione e compressione dei vertici) e una parte topologica (connessioni tra vertici per formare triangoli).
In parole sintetiche:
Se un modello si muove o si deforma, i triangoli cambiano forma/posizione, e la GPU deve aggiornare o ricostruire il BVH, tutto via shader, sprecando tanti cicli, al contrario di nvidia che ha RT core.
Con DGF i triangoli e le connessioni restano identici (topologia), cambiano solo le posizioni dei vertici, non interrompi gli shader per rifare la topologia e cercare nuovi triangoli, aggiorni solo le posizioni.
Calcolare solo la posizione dei vertici è banalissimo ed impiega pochissimo.
Esempio:
Ipotizziamo che BVH base impieghi 5-10ms, DGF potrebbe impiegarne 1-2.
Se facciamo 60fps, 5ms + 16,6ms, significano 21,6ms = 46fps circa.
Se da 60 impieghiamo 2ms, 16,6+2 = 18,6 = 54fps circa.
Ovviamente la "forbice" potrebbe essere meno o molto più elevata in base allo scenario.
Chiaro siamo su una base teorica.
tradotto x gli ignorantoni? :stordita:
Sembra, finalmente :stordita:, che amd si stia muovendo in modo importante nello sviluppo software a corredo del suo hardware.
Sembra, finalmente :stordita:, che amd si stia muovendo in modo importante nello sviluppo software a corredo del suo hardware.
esatto, forse sta volta ha tenuto il profilo basso rispetto alle novità che possono rilasciare sotto il cofano
Evilquantico
01-10-2025, 15:45
Sembra, finalmente :stordita:, che amd si stia muovendo in modo importante nello sviluppo software a corredo del suo hardware.
esatto, forse sta volta ha tenuto il profilo basso rispetto alle novità che possono rilasciare sotto il cofano
Mi sa che UDNA riporterà tanti verdolini in rosso ( un pò come nel suo piccolo la 9070xt ha fatto ) e ci sarà da divertirsi :cool:
Ale55andr0
01-10-2025, 15:53
Mi sa che UDNA riporterà tanti verdolini in rosso ( un pò come nel suo piccolo la 9070xt ha fatto ) e ci sarà da divertirsi :cool:
Credici.
....La 9070XT ha portato cosa che AMD sta all'8%? :D
Evilquantico
01-10-2025, 15:55
Credici.
....La 9070XT ha portato cosa che AMD sta all'8%? :D
Ci credo ci credo :cool: tu non ti preoccupare , ti vedo felice della tua 7900xt con ben 20 gigi
P.S. abbiamo gia parlato dietro di quelle percentuali , non sono reali del mercato e dello share
Credici.
....La 9070XT ha portato cosa che AMD sta all'8%? :D
Argomento ciclico per cui veniamo ciclicamente cazziati per OT in svariati thread :asd:
Please don't feed the ot :read:
Windtears
01-10-2025, 17:48
tornando it, sta arrivando anche afmf3:
https://videocardz.com/newz/amd-fluid-motion-frames-3-afmf3-has-been-spotted-in-drivers-files
c'e' anche un brevetto AMD per raddoppiare la BW
https://wccftech.com/amd-newest-patent-brings-a-gigantic-boost-to-memory-performance/
si parla di Dimm, interessante in ottica Apu/AI
tornando it, sta arrivando anche afmf3:
https://videocardz.com/newz/amd-fluid-motion-frames-3-afmf3-has-been-spotted-in-drivers-files
Su helldivers 2 è molto valido afmf2, spero migliorino quelle pochissime sbavature che si notano (sperando che vada anche su rdna3).
ninja750
02-10-2025, 11:30
nvidia entra in intel con grossi capitali e si parla subito di stampaggio serie 6000 con il 14A intel
piuttosto di lasciarle ferme intel vorrebbe usare in qualche modo le sue nuove fonderie, e notizia di oggi parrebbe voler fornire il 14A pure ad AMD
che tutte e due (o tre a questo punto :asd: ) virino a una sola fab USA per di più con un mezzo salto nel vuoto conoscendo i proclami dei PP intel, mollando TSMC che si è sempre dimostrata molto affidabile e performante, la vedo dura e non vedo quali siano eventuali benefici
anche facendo il salto nel buio ci sarebbero ipotizzo costi maggiori, rese peggiori, performance peggiori
se proprio si andrà verso questa strada credo che nvidia e amd inizieranno a testare qualcosa con side (parecchio side..) product
aggiungo che se intel fosse davvero così sicura della superiorità di quel PP dovrebbe fare uscire ieri una gpu stampata con quel nodo
mikael84
02-10-2025, 12:06
nvidia entra in intel con grossi capitali e si parla subito di stampaggio serie 6000 con il 14A intel
piuttosto di lasciarle ferme intel vorrebbe usare in qualche modo le sue nuove fonderie, e notizia di oggi parrebbe voler fornire il 14A pure ad AMD
che tutte e due (o tre a questo punto :asd: ) virino a una sola fab USA per di più con un mezzo salto nel vuoto conoscendo i proclami dei PP intel, mollando TSMC che si è sempre dimostrata molto affidabile e performante, la vedo dura e non vedo quali siano eventuali benefici
anche facendo il salto nel buio ci sarebbero ipotizzo costi maggiori, rese peggiori, performance peggiori
se proprio si andrà verso questa strada credo che nvidia e amd inizieranno a testare qualcosa con side (parecchio side..) product
aggiungo che se intel fosse davvero così sicura della superiorità di quel PP dovrebbe fare uscire ieri una gpu stampata con quel nodo
Intel va da TSMC e gli altri da Intel praticamente...
Il 18A attuale, era a 0,4 di DD, vorrebbe dire ipoteticamente, una 5090 a 2000$ die, ed è per limiti fisici un 3-5nm TSMC, con possiiblità di clockare di più grazie a powervia e ribbonfet. Il 14A dovrebbe affacciarsi in zona 2nm TSMC, ma per il 2027 il 14A veniva stimato lo scorso anno con una media paragonabile a quella di intel 4, usata solo per meteor lake e per appena 20k wafer.
ninja750
02-10-2025, 14:29
c'è da aggiungere che la news AMD->Intel non parla di cosa e come
magari (sarebbe il colmo) parlano di cpu e non gpu
ma io non darei mai i miei disegni ad un diretto competitor
Intel va da TSMC e gli altri da Intel praticamente....
:asd:
tornando it, sta arrivando anche afmf3:
https://videocardz.com/newz/amd-fluid-motion-frames-3-afmf3-has-been-spotted-in-drivers-files
con Redstone quindi tra sei mesi altro che "sta arrivando"
con Redstone quindi tra sei mesi altro che "sta arrivando"Redstone è previsto per dicembre
Inviato dal mio moto g75 5G utilizzando Tapatalk
analisi qualità di immagine e impatto performance di FSR4 int 8 e confronto diretto con FSR FP8 e algoritmo intel Xess DP4
https://www.youtube.com/watch?v=yB0qmTCzrmI
ninja750
03-10-2025, 10:01
bene che hanno confrontato normalizzando le performance
fsr4 performance rdna4 = fsr balanced rdna2/3
e tutti e due spesso sono meglio di FSR3.1 a pari fps
bene che hanno confrontato normalizzando le performance
fsr4 performance rdna4 = fsr balanced rdna2/3
e tutti e due spesso sono meglio di FSR3.1 a pari fps
Non ho capito bene il tuo paragone.
Io direi che da FSR 3.1 quality:
Con RDNA4 FSR4 FP16 quality hai circa le stesse performance, poco meno.
Con RDNA3 FSR4 INT8 balanced hai circa le stesse performance, poco più.
Con RDNA2 FSR4 INT8 performance hai circa le stesse performance, poco meno.
Quindi in breve direi che RDNA3 perde un livello di qualità e RDNA2 due.
Ma in realtà FSR4 performance è comunque meglio di FSR3 quality, quindi FSR4 è il benvenuto ovunque.
ninja750
03-10-2025, 16:22
si ho sbagliato a scrivere intendevo come l'hai scritta tu
ma avevo capito che l'impatto su RDNA2/RDNA3 fosse il medesimo
ha più impatto di perf? cioè nativa RDNA3 vs fsr4 RDNA3 impatta meno percentualmente che nativa RDNA2 vs fsr4 RDNA2?
che poi poco male perchè FSR3 in performance penso non lo usi nessuno
si ho sbagliato a scrivere intendevo come l'hai scritta tu
ma avevo capito che l'impatto su RDNA2/RDNA3 fosse il medesimo
ha più impatto di perf? cioè nativa RDNA3 vs fsr4 RDNA3 impatta meno percentualmente che nativa RDNA2 vs fsr4 RDNA2?
che poi poco male perchè FSR3 in performance penso non lo usi nessuno
Due immagini valgono più di mille parole in questo caso :D
https://i.postimg.cc/G8RNSLmg/image.png (https://postimg.cc/G8RNSLmg)
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)
EDIT
Uh no, no, hai ragione tu.
Ho cannato la prima immagine che riguarda la 9070
Quelle corrette sono queste e sembrano avere lo stesso impatto come performance:
https://i.postimg.cc/QFsTtvC5/image.png (https://postimg.cc/QFsTtvC5)
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)
Saved_ita
03-10-2025, 18:43
Due immagini valgono più di mille parole in questo caso :D
https://i.postimg.cc/G8RNSLmg/image.png (https://postimg.cc/G8RNSLmg)
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)
EDIT
Uh no, no, hai ragione tu.
Ho cannato la prima immagine che riguarda la 9070
Quelle corrette sono queste e sembrano avere lo stesso impatto come performance:
https://i.postimg.cc/QFsTtvC5/image.png (https://postimg.cc/QFsTtvC5)
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)
Beh in realtà a parte la nativa, in tutti gli altri casi (da quality in giù) con RDNA2 hai incrementi più bassi rispetto ad RDNA3.
con RDNA3 hai incrementi intorno al 11-12% con RDNA2 invece 9% e 7% ma potrebbe essere anche legato alla scheda perchè una 7900XTX non è paragonabile a un 6750XT... avessero voluto verificare veramente questa cosa potevano paragonare la 6800XT alla 7800XT che erano praticamente la stessa scheda.
In ogni caso molto meglio di quello che mi aspettassi perchè mi sarei aspettato un guadagno pressochè nullo o una qualità molto scarsa... "strano" che non lo vogliano rilasciare.
StylezZz`
03-10-2025, 19:50
... "strano" che non lo vogliano rilasciare.
Giustamente devono sfruttare l'effetto ''wow'' di FSR4 a loro favore, dagli il tempo di smaltire abbastanza 9000 e lo renderanno disponibile (se non lo fa prima optiscaler) anche per le vecchie...io nel frattempo ho venduto la 9070xt e ripreso la mia bella 6800 reference :stordita:
Windtears
04-10-2025, 09:10
sembra che si possano capire le nuove funzionalità di afmf3 per chi ha installato i driver che supportano rocm su pytorch nativamente in windows:
https://www.youtube.com/watch?v=VIU3xmxzuRk
la cosa più rilevante pare che la nuova versione possa "leggere" informazioni sui frame dal gioco tramite l'upscaler e quindi non sia più solo frame inventati dal driver.
sembra che si possano capire le nuove funzionalità di afmf3 per chi ha installato i driver che supportano rocm su pytorch nativamente in windows:
https://www.youtube.com/watch?v=VIU3xmxzuRk
la cosa più rilevante pare che la nuova versione possa "leggere" informazioni sui frame dal gioco tramite l'upscaler e quindi non sia più solo frame inventati dal driver.
Cosa farebbe di diverso? Ho visto il video ma non capisco bene l'inglese, non tanto da seguire questi discorsi. Migliorano le prestazioni?
Windtears
04-10-2025, 20:30
Cosa farebbe di diverso? Ho visto il video ma non capisco bene l'inglese, non tanto da seguire questi discorsi. Migliorano le prestazioni?
migliora la qualità dei frame generati da afmf perché non sarebbero 100% generati dal driver fuori dal gioco, ma potrebbe contare sulle informazioni dei motion vector interni al gioco tramite l'upscaler.
Dovrebbe diventare superiore (di quanto non saprei) a lossless scaler anche nella stabilità dell'immagine e non solo per la latenza.
ninja750
06-10-2025, 10:57
io nel frattempo ho venduto la 9070xt e ripreso la mia bella 6800 reference :stordita:
perchè? :stordita:
StylezZz`
06-10-2025, 11:47
perchè? :stordita:
Perché ha assolto il suo compito, ho testato FSR4 e finito quei 2-3 giochi RT intensive che mi interessavano, non aveva senso tenerla ''ferma'' e farla svalutare. Per tutto il resto la 6800 mi va benissimo e con FSR4 in arrivo su RDNA2 e 3 non sentirò la mancanza.
ninja750
06-10-2025, 15:47
con FSR4 in arrivo su RDNA2 e 3 non sentirò la mancanza.
aspetta (aspettiamo) e spera..
Perché ha assolto il suo compito, ho testato FSR4 e finito quei 2-3 giochi RT intensive che mi interessavano, non aveva senso tenerla ''ferma'' e farla svalutare. Per tutto il resto la 6800 mi va benissimo e con FSR4 in arrivo su RDNA2 e 3 non sentirò la mancanza.
Penso che su RDNA2 l'FSR4 non arrivera' mai per ovvie ragioni gia' spiegate da AMD.
Sara' possibile dalla serie 7000 in su.
StylezZz`
06-10-2025, 16:47
aspetta (aspettiamo) e spera..
Penso che su RDNA2 l'FSR4 non arrivera' mai per ovvie ragioni gia' spiegate da AMD.
Sara' possibile dalla serie 7000 in su.
È già possibile attivarlo installando una vecchia versione di adrenalin :stordita:
Se AMD non lo farà funzionare ufficialmente, state tranquilli che sarà possibile via optiscaler o altri metodi.
Cutter90
06-10-2025, 16:49
È già possibile attivarlo installando una vecchia versione di adrenalin :stordita:
Se AMD non lo farà funzionare ufficialmente, state tranquilli che sarà possibile via optiscaler o altri metodi.
Già solo per lo sbatto enorme di farlo io sarei rimasto con la 9070 XT :D
È già possibile attivarlo installando una vecchia versione di adrenalin :stordita:
Se AMD non lo farà funzionare ufficialmente, state tranquilli che sarà possibile via optiscaler o altri metodi.
In realtà basta copiare 2 file dei vecchi driver nella cartella dei nuovi e poi installare questi ultimi. E per i giochi che supportano FSR3.1 basta sostituire una dll nella cartella del gioco. Per gli altri c'è optiscaler
StylezZz`
06-10-2025, 17:20
Già solo per lo sbatto enorme di farlo io sarei rimasto con la 9070 XT :D
No troppo semplice, mi piace smanettare :O
In realtà basta copiare 2 file dei vecchi driver nella cartella dei nuovi e poi installare questi ultimi. E per i giochi che supportano FSR3.1 basta sostituire una dll nella cartella del gioco. Per gli altri c'è optiscaler
Esatto! Ho sbagliato a scrivere ''installare vecchia versione'', in realtà servono solo i 2 file dei vecchi.
EddieTheHead
06-10-2025, 17:37
sì ma occhio che quelle due DDL che sostituite SONO effettivamente i driver :D
quindi vi dirà pure "driver xxpincopalloxx" ma in realtà state usando quelli vecchi
StylezZz`
07-10-2025, 10:39
sì ma occhio che quelle due DDL che sostituite SONO effettivamente i driver :D
quindi vi dirà pure "driver xxpincopalloxx" ma in realtà state usando quelli vecchi
Sono due DLL che occupano circa 65MB l'una e fanno parte del driver, ma non sono ''il driver'', quindi alla fine si avranno comunque le funzionalità dell'ultima versione adrenalin...altrimenti che senso avrebbe fare la sostituzione?
https://www.dllme.com/dll/files/amdxc64
Sono due DLL che occupano circa 65MB l'una e fanno parte del driver, ma non sono ''il driver'', quindi alla fine si avranno comunque le funzionalità dell'ultima versione adrenalin...altrimenti che senso avrebbe fare la sostituzione?
https://www.dllme.com/dll/files/amdxc64
Probabilmente nessuno, perchè in teoria dopo aver apportato la sostituzione dovrebbe essere come aver installare i driver vecchi senza le ultime ottimizzazioni ma che funzionano in maniera adeguata con FSR 4 e danno maggiore consistenza con i giochi più datati.
A questo punto, se la cosa fosse confermata ( non è ancora chiaro), vale la pena utilizzare quelli ufficiali AMD.
Per aver la certezza sarebbe da fare un test con un gioco recente che ha ricevuto un'ottimizzazione da AMD in driver più recenti e confrontare i risultati con e senza sostituzione delle DLL, lasciando fuori dall'equazione FSR ovviamente.
Lo youtuber portoghese dovrebbe aver segnalato questa cosa ad AMD, vediamo se verrà fixata ufficialmente nelle prossime release o in prossima del rilascio di Redstone
StylezZz`
07-10-2025, 11:10
Si bisognerebbe fare un confronto delle prestazioni, anche se Fabio (lo utuber portoghese) nella sua guida dice chiaramente che la copia delle dll serve per sfruttare le ottimizzazioni degli ultimi adrenalin con i nuovi giochi, altrimenti non avrebbe senso.
Si bisognerebbe fare un confronto delle prestazioni, anche se Fabio (lo utuber portoghese) nella sua guida dice chiaramente che la copia delle dll serve per sfruttare le ottimizzazioni degli ultimi adrenalin con i nuovi giochi, altrimenti non avrebbe senso.
Sicuramente lui ne sa qualcosa in più ;)
ninja750
09-10-2025, 10:55
https://www.hwupgrade.it/news/skvideo/amd-brucia-nvidia-le-nuove-instinct-mi450-saranno-le-prime-gpu-ai-a-2-nanometri_144612.html
nuove instinct sui 2nm di TSMC
quindi per me anche UDNA/RDNA5 saranno conseguentemente su questo PP specialmente se i rumour di unificazione architetturale sono veri
"TSMC stima che il passaggio da 3 a 2 nm possa offrire fino al 15% di prestazioni in più a parità di consumo, oppure una riduzione dei consumi del 30% a parità di potenza"
quindi una 9070 potrebbe consumare da 220w a 154w
quindi una 9070XT potrebbe consumare da 304w a 213w
il tutto senza muovere una virgola architetturale o frequenze
oppure una 9070 potrebbe andare come una 9070XT/5070ti in 220w
oppure una 9070XT potrebbe andare come una 5080 in 304w
sempre senza muovere una virgola architetturale o frequenze
ergo mi verrebbe da concludere che AMD non riuscirà ancora a prendere la 4090 (di tre anni fa..) se non aumenterà "core count" o "ipc", perchè l'aumento delle frequenze sarebbe tutto da verificare (e aumenterebbe il consumo) e ci vorrebbe almeno in +20% che su 3 ghz vorrebbe dire arrivare a 3,6 che sono tanti
mikael84
09-10-2025, 12:24
https://www.hwupgrade.it/news/skvideo/amd-brucia-nvidia-le-nuove-instinct-mi450-saranno-le-prime-gpu-ai-a-2-nanometri_144612.html
nuove instinct sui 2nm di TSMC
quindi per me anche UDNA/RDNA5 saranno conseguentemente su questo PP specialmente se i rumour di unificazione architetturale sono veri
"TSMC stima che il passaggio da 3 a 2 nm possa offrire fino al 15% di prestazioni in più a parità di consumo, oppure una riduzione dei consumi del 30% a parità di potenza"
quindi una 9070 potrebbe consumare da 220w a 154w
quindi una 9070XT potrebbe consumare da 304w a 213w
No, quello è il dato teorico di un 2nm ribbonfet vs un 3nB.
Questo per dire, è il teorico a basse tensioni (la iso) di un 2nmP vs un 3nE, che mediamente è l'11% più efficiente di un 4np ed il 7% più performance 0,75v.
https://i.postimg.cc/L5qPCK50/e4u-Uh-FVTSisqc-MUdhptu-Bk-1200-80.png
Le differenze sarebbero molto marcate.
Tuttavia, ciò che davvero impatta è la densità, ovvero potresti stampare una 9070xt su un 250mm2 (74/75000mt su un 350, l'equivalente di AD102 full).
Il paradosso, è che si rischia il salto del 3nm, su tutti i fronti, quando tale PP, poteva realmente migliorare le serie attuali.
Nvidia al momento è veramente sui 3nP per le HPC.
ninja750
09-10-2025, 12:49
Le differenze sarebbero molto marcate.
riparametrizza quei due esempi che ho fatto in base a quelle tue informazioni così capiamo meglio :O
mikael84
09-10-2025, 13:18
riparametrizza quei due esempi che ho fatto in base a quelle tue informazioni così capiamo meglio :O
Prendi una 9070xt con 200watt di core. Passala ai 3nE ed i consumi scenderebbero a 178watt (sempre teorici), dopo lo shrinkiamo sui 2nmP, e quel chip scende da 178 a 114watt.
Però attenzione, il picco della riduzione è a 0,75v non a 1,05v, quindi la questione cambia sensibilmente, perchè, il massimo potresti raggiungerlo a valori intorno ai 100-125watt, quindi la riduzione sarebbe minore.
Ora, hai varie strade:
- ridimensionare il die, ed i consumi totali, considerando che su un core così, anche il pcb, e le relative perdite sarebbero molto minori, diventerebbe quasi una x60.
- stessi consumi, ma pompare il clock. Se a 2,2/0,75 hai 2,2, con i 2nmP sali a 2,7, quindi ipotizzando uno scenario reale, potresti avere un boost minimo di 3650, come i 2950 ora.
- sfruttare la densità e salire sino ai transistor di AD102 full (4090ti) e quindi da 250mm2, sali a 350, ovvero 75000mtransistor. Questo significa, aumentare l'IPC (navi48) o aumentare gli shader.
Per fare un altro esempio, nei 75mt, potresti portare i 6144shader e 384bit, a clock ben più alti degli attuali, tornando però sui consumi di navi48.
Questo è ciò che potrebbe fare un 2nP, mentre un 3nm, guadagnerebbe densità, ma il rapporto performance non sarebbe così eclatante.
ninja750
09-10-2025, 14:13
sembra tutto troppo bello
ma la teoria di declassare il core count della 9070xt relegandola a 10060xt e presentando una 10700xt con 1.5x sarebbe invero molto bello se riescono a tenere i consumi sotto i 250w o cmq sotto i 300w che sono già troppo alti per me per una "fascia 7"
mikael84
09-10-2025, 14:49
sembra tutto troppo bello
ma la teoria di declassare il core count della 9070xt relegandola a 10060xt e presentando una 10700xt con 1.5x sarebbe invero molto bello se riescono a tenere i consumi sotto i 250w o cmq sotto i 300w che sono già troppo alti per me per una "fascia 7"
Sono dati teorici su un nodo molto più avanzato con i ribbonfet (4np vs 2np).
La 9070xt è siglata 70, ma non è proprio una 70 fisicamente, considerando che ha il 20% in più dei transistor rispetto alla 5080, ma lente G6.
Se l'avversaria fosse la 4080, l'avrebbero chiamata 9080xt.
Volendo, una 6144st si poteva già realizzare con un 500mm2, ma i consumi con il 4nmp, sarebbero saliti ad almeno 450. Tale chip avrebbe preso e spesso battuto la 4090 in raster. La 9900xt che manca ora.
Con un 2nm, ci vuole davvero poco per prenderla, ma già con un 3np lo fai.
probabile pero' che i 2nm saranno esclusivi per i prodotti da Datacenter.. per il consumer max i 3nm e ci dice pure bene
pare che dalla prossima AMD avra' finalmente prodotti all'altezza della concorrenza, ergo se tutto viene prodotto a 2nm, ma le richieste per i datacenter saranno molto elevate, dove pensate che poi tagliano per farne fronte?:stordita: :(
per i consumi, un po di undervolt e via
poi sono da preferire piu' le evoluzioni architetturali, se gli metti in mano un processo produttivo che promette clock molto piu' alti, il rischio e' che si punta troppo sulle freq e poco sulla architettura..
in ogni caso AMD ha ancora la carta G7 da giocare
Vabbè la 9070xt ha pur sempre un die da 357mm2, ora poi, la si trova a poco più di 600€...
E non vorrei dire... ma anche la bistrattata 9070 liscia fa buoni numeri XD
https://tpucdn.com/review/asus-radeon-rx-9070-tuf-oc/images/overclocked-performance.png
https://tpucdn.com/review/sapphire-radeon-rx-9070-xt-nitro/images/overclocked-performance.png
Onestamente a sto giro ci sono ben poche critiche da fare...
Poi posso capire che a molti non piaccia non avere padelle da 600-750mmq, ma parliamo di un target che ha raggiunto prezzi osceni di oltre 2000€...
mikael84
09-10-2025, 15:53
probabile pero' che i 2nm saranno esclusivi per i prodotti da Datacenter.. per il consumer max i 3nm e ci dice pure bene
pare che dalla prossima AMD avra' finalmente prodotti all'altezza della concorrenza, ergo se tutto viene prodotto a 2nm, ma le richieste per i datacenter saranno molto elevate, dove pensate che poi tagliano per farne fronte?:stordita: :(
per i consumi, un po di undervolt e via
poi sono da preferire piu' le evoluzioni architetturali, se gli metti in mano un processo produttivo che promette clock molto piu' alti, il rischio e' che si punta troppo sulle freq e poco sulla architettura..
in ogni caso AMD ha ancora la carta G7 da giocare
In linea di massima si, perchè se ipotizzando 75mtransistor, riesci a fare un lavoro simile a quanto visto tra RDNA3 e 4 è meglio, perchè devi pensare alle performance brute, a quelle rt e quelle dei tensor, come l'introduzione delle FP4.
Se quei transistor li usi solo per aumentare gli shader, rimani indietro.
Cmq si parlava di unificazione tra CDNA e RDNA, e CDNA è ancora GCN.
Vabbè la 9070xt ha pur sempre un die da 357mm2, ora poi, la si trova a poco più di 600€...
E non vorrei dire... ma anche la bistrattata 9070 liscia fa buoni numeri XD
Onestamente a sto giro ci sono ben poche critiche da fare...
Poi posso capire che a molti non piaccia non avere padelle da 600-750mmq, ma parliamo di un target che ha raggiunto prezzi osceni di oltre 2000€...
Vabbè quel test è hws e shader intensive, gira meglio su AMD.
Era giusto per avere un riferimento, soprattutto tra 9070 e 9070xt.
Ma con le ultime release driver, sia 9070 che 9070xt si staccano dal target di GB205, sono sku dove si nota il chip decisamente più bruto, pur mantenendo prezzi simili.
AMD insieme a Sony accennano alle nuove tecniche per le prossime GPU
https://wccftech.com/amd-unveils-radiance-cores-neural-arrays-universal-compression-next-gen-rdna-gpu-architecture/
mikael84
09-10-2025, 16:42
Era giusto per avere un riferimento, soprattutto tra 9070 e 9070xt.
Ma con le ultime release driver, sia 9070 che 9070xt si staccano dal target di GB205, sono sku dove si nota il chip decisamente più bruto, pur mantenendo prezzi simili.
Considera che GB205 ha mediamente i transistor di navi44, e che non è full, e non boosta in AVG a 3200 circa.
La 5070 per transistor praticamente dovrebbe scontrarsi con la 9060xt, ed ovviamente ci sta che in vari giochi la 9070 possa superarla abbondantemente, soprattutto in test dove mostra la potenza shader.
Considera che GB205 ha mediamente i transistor di navi44, e che non è full, e non boosta in AVG a 3200 circa.
La 5070 per transistor praticamente dovrebbe scontrarsi con la 9060xt, ed ovviamente ci sta che in vari giochi la 9070 possa superarla abbondantemente, soprattutto in test dove mostra la potenza shader.
Vabbè non penso che quel 4% di ALU disattive facciano il miracolo XD
GB205 è anche meno complesso del precedente AD104.
Come complessità, fondamentalmente 9070 e 9070ti, se la giocano con 4070ti Super e 4080, volendo forzare un paragone.
Ale55andr0
09-10-2025, 17:37
mi manca la fine anni 90/inizio 2000, quando fra Marzo e Ottobre dello stesso anno passavi da lancio di una top all'altra (TNT2 ultra-->geforce 256) con salti prestazionali enormi mentre ora bisogna attendere 2 anni per un salto misero a prezzi idioti
mi manca la fine anni 90/inizio 2000, quando fra Marzo e Ottobre dello stesso anno passavi da lancio di una top all'altra (TNT2 ultra-->geforce 256) con salti prestazionali enormi mentre ora bisogna attendere 2 anni per un salto misero a prezzi idioti
Se non fosse per i prezzi idioti il lasso temporale andrebbe bene, almeno ti godi quello che hai comprato per un paio d'anni (minimo) :).
Jack Carver
10-10-2025, 07:59
mi manca la fine anni 90/inizio 2000, quando fra Marzo e Ottobre dello stesso anno passavi da lancio di una top all'altra (TNT2 ultra-->geforce 256) con salti prestazionali enormi mentre ora bisogna attendere 2 anni per un salto misero a prezzi idioti
si ma a livello di giochi duravano poco mentre oggi come oggi ancora giochi più che decentemente con una video di 2 generazioni fa
ninja750
10-10-2025, 11:08
mi manca la fine anni 90/inizio 2000, quando fra Marzo e Ottobre dello stesso anno passavi da lancio di una top all'altra (TNT2 ultra-->geforce 256) con salti prestazionali enormi mentre ora bisogna attendere 2 anni per un salto misero a prezzi idioti
si bello, compri oggi a 500 e dopo 6 mesi vale 250 :ciapet:
a proposito della collaborazione per Project Amethyst tra Amd e Sony(PS6)
Digital Foundry a chiesto lumi e Mark Cerny ha dichiarato un cambiamento molto importante/epocale
...Firstly, when asked about the change in Sony's hardware and software strategy from the PlayStation 5 Pro to the next PlayStation console, Mark Cerny said Project Amethyst would bring about a monumental shift:
We've shifted our focus substantially. In the past, we were largely creating custom technologies just for PlayStation platforms. But now with Project Amethyst, we're placing substantially more of a focus on co-engineering and co-development with AMD on their roadmap hardware and libraries. That change will have a very large impact, because when developers can create their technology with the understanding that it will work across multiple platforms such as desktops, laptops, consoles, etc., there will be much larger pickup of new features. So I believe we'll see outsized impact from the technologies announced this past week!...
praticamente le prossime console, anche Xbox, Handheld e PC, saranno basate su HW e SW quasi totalmente congiunto
ottimo per invogliare il supporto, visto l'enorme utenza PC/console, e velocizzare l'interoperabilità :)
ninja750
14-10-2025, 12:28
ha più impatto di perf? cioè nativa RDNA3 vs fsr4 RDNA3 impatta meno percentualmente che nativa RDNA2 vs fsr4 RDNA2?
abbiamo una risposta con numeri per RDNA2:
https://www.computerbase.de/artikel/grafikkarten/fsr-4-rdna-2-rdna-3.94512/seite-2
https://i.postimg.cc/fTpY80LR/impatto-fsr4.png
usate i grafici interattivi
in pratica se assumiamo che qualitativamente FSR4 performance = FSR3 quality
abbiamo FSR4 performance +44% mentre FSR3 quality +37% quindi ha davvero senso usare FSR4
quindi vediamo anche che FSR4 in qualità ha un impatto praticamente uguale su tutte RDNA2/3/4 che è 24% mediamente
quello che cambia molto è FSR4 performance che su RDNA2/3 impatta +43/44 mentre su RDNA4 fa un bel +65%
StylezZz`
14-10-2025, 14:36
Non hanno testato FSR4 Balanced? Credo sia quello più indicato su RDNA2...
con Cyberpunk 2077 , 9070 XT e un 7800X3D
in 4K
con frame gen FSR 4
che impostazioni tenere?
un preset rapido per avere 60fps medi?
l'RT , anche a medio, è sostenibile?
in pratica se assumiamo che qualitativamente FSR4 performance = FSR3 quality
https://www.youtube.com/watch?v=yB0qmTCzrmI&t=830s
Qui si vede bene la differenza tra FSR3 e 4 a differenti settaggi.
Imho FSR4 performance > FSR 3 quality.
Soprattutto quando entrano in gioco robe che si muovono, trasparenze, ecc.
ninja750
15-10-2025, 09:58
sì quindi è davvero un peccato non lo portassero ufficialmente su RDNA2/3
anche perchè a quel punto o blocchi i tweak che oggi sono possibili nei driver o non ha senso che la gente debba smanettare in sto modo
sì quindi è davvero un peccato non lo portassero ufficialmente su RDNA2/3
anche perchè a quel punto o blocchi i tweak che oggi sono possibili nei driver o non ha senso che la gente debba smanettare in sto modo
Hanno già detto che Redstone andrà su RDNA2 e 3, quindi basta aspettare.
EddieTheHead
15-10-2025, 15:39
ma l'hanno detto ufficialmente? :stordita:
Ale55andr0
15-10-2025, 16:21
con Cyberpunk 2077 , 9070 XT e un 7800X3D
in 4K
con frame gen FSR 4
che impostazioni tenere?
un preset rapido per avere 60fps medi?
l'RT , anche a medio, è sostenibile?
Carica il preset RT ultra, lascia tutto come ti setta e poi imposta il solo RT a medio a limite, ad alto, a seconda del tuo senso di fluidità.
Ale55andr0
15-10-2025, 16:23
Hanno già detto che Redstone andrà su RDNA2 e 3, quindi basta aspettare.
redstone che?
ninja750
15-10-2025, 17:05
Carica il preset RT ultra, lascia tutto come ti setta e poi imposta il solo RT a medio a limite, ad alto, a seconda del tuo senso di fluidità.
hai provato la tua famosa porsche di silverhand con fsr4 e la tua rdna3?
A64FX+DFI nF4
15-10-2025, 20:14
redstone che?
https://videocardz.com/newz/amd-announces-fsr-redstone-for-rdna4-neural-radiance-caching-ml-ray-regeneration-and-frame-generation
https://videocardz.com/newz/amd-fsr-3-1-4-paving-the-way-for-fsr-redstone
https://videocardz.com/newz/fsr-redstone-on-track-amd-promises-dedicated-presentation
https://videocardz.com/newz/amd-fsr-redstone-may-run-on-non-amd-gpus
redstone che?
il dlss4 di AMD...
ma l'hanno detto ufficialmente? :stordita:
Detto in un'intervista, tale Chris Hall, Senior Director Software Development di AMD.
Quindi non è proprio una comunicazione ufficiale per non è manco un leak di un tizio cinese che ha un cugino che conosce qualcuno.
redstone che?
Che ce l'hai i Google te? :asd:
https://videocardz.com/newz/amd-announces-fsr-redstone-for-rdna4-neural-radiance-caching-ml-ray-regeneration-and-frame-generation
https://videocardz.com/newz/amd-fsr-3-1-4-paving-the-way-for-fsr-redstone
https://videocardz.com/newz/fsr-redstone-on-track-amd-promises-dedicated-presentation
https://videocardz.com/newz/amd-fsr-redstone-may-run-on-non-amd-gpus
C'è anche la pagina di AMD: https://www.amd.com/en/products/graphics/technologies/fidelityfx/super-resolution.html
Praticamente è FSR 4 + neural radiance caching + ray regeneration + frame gen basato su ML.
ninja750
17-10-2025, 10:55
C'è anche la pagina di AMD: https://www.amd.com/en/products/graphics/technologies/fidelityfx/super-resolution.html
Praticamente è FSR 4 + neural radiance caching + ray regeneration + frame gen basato su ML.
lì però per redstone c'è proprio scritto "on the latest on AMD RDNA™ 4 GPUs"
ninja750
17-10-2025, 13:02
ben rileggendo smebra che FSR4 sarà parte di redstone e quindi.. perchè no? :stordita:
With AMD FidelityFX SDK 2.0 and AMD FSR Redstone, future AMD Software: Adrenalin Edition™ driver releases can update the version of ML-based technologies used in-game by default. This ensures players experience the latest available technology without requiring game updates for each title.
Games which have previously integrated AMD FSR 3.1 and later are eligible for automatic version upgrades to AMD FSR 4 upscaling technology via future AMD Software: Adrenalin Edition releases.
Games which have previously integrated AMD FSR 3.1.4 will be eligible for automatic version upgrades to our upcoming FSR ML Frame Generation technology via future AMD Software: Adrenalin Edition releases.
EddieTheHead
17-10-2025, 14:19
beh stiamo a vedere. Non avrebbe senso non renderlo ufficialmente compatibile con RDNA 2/3, già adesso che è di sgamo funziona :boh:
Ale55andr0
17-10-2025, 22:47
hai provato la tua famosa porsche di silverhand con fsr4 e la tua rdna3?
No, io gioco in nativa e cmq cp2077 l'ho finito eoni fa
Ale55andr0
17-10-2025, 22:48
il dlss4 di AMD...
ah, chiamarlo FSR 4 e bon no? :D
ah, chiamarlo FSR 4 e bon no? :D
Nel senso che a FSR 4 al momento mancano ancora cose che DLSS 4 ha come il ray racostruction, Redstone lo includerà o quanto meno la versione AMD della cosa che hanno chiamato ray regeneration (fantasia eh?)
Stessa cosa il frame generation, AMD lo ha già e funziona discretamente, ma non è basato sul ML come quello di Nvidia, Redstone dovrebbe introdurre un frame gen ML.
Non ricordo se DLSS 4 ha già qualcosa come neural radial caching
EddieTheHead
18-10-2025, 00:21
piu diventano avanzate più queste tecnologie diventano l'una uguale all'altra in termini di qualità di immagine
cent'euro che finiranno per diventare standard comune
piu diventano avanzate più queste tecnologie diventano l'una uguale all'altra in termini di qualità di immagine
cent'euro che finiranno per diventare standard comune
Tipo ei fu Physyx?
piu diventano avanzate più queste tecnologie diventano l'una uguale all'altra in termini di qualità di immagine
cent'euro che finiranno per diventare standard comune
Più o meno la strada è sempre stata quella, Nvidia si inventa una nuova diavoleria proprietaria, altri che siano AMD o altri o in collaborazione tra loro piano piano si portano al pari e poi diventa uno standard aperto.
Anche perché nel frattempo Nvidia si inventa una nuova diavoleria su cui puntare.
Tipo ei fu Physyx?
Physx mi sembra quello che più si è perso.
alethebest90
19-10-2025, 09:39
Physx mi sembra quello che più si è perso.
sta sparendo anche g-sync
Physx mi sembra quello che più si è perso.Physx non è nemmeno più supportato dalle rtx 5000.
Infatti se abilitata su queste schede le prestazioni sono peggiori che per le rtx 4000/3000
Inviato dal mio moto g75 5G utilizzando Tapatalk
Physx non è nemmeno più supportato dalle rtx 5000.
Infatti se abilitata su queste schede le prestazioni sono peggiori che per le rtx 4000/3000
Inviato dal mio moto g75 5G utilizzando Tapatalk
Da quello che ricordo hanno rimosso solo la parte 32bit, quella a 64bit dovrebbe continuare a funzionare, ma ironicamente proprio nei vecchi titoli si aveva l'uso più impattante XD
Vedi Batman, Alice, mirror Edge... gli levi phyx e praticamente rimuovi la maggior parte degli effetti particellari... Potevano almeno creare un wrapper o un emulatore, o qualcosa per mitigare, invece nada...
Però, si può comunque utilizzare una seconda gpu, anche una GT710 giusto per il calcolo physx, cosa che si faceva anche al tempo con le schede amd, io ho ancora la 9600gt nel cassetto che al tempo usavo con la 5870 XD
Ale55andr0
19-10-2025, 13:43
si bello, compri oggi a 500 e dopo 6 mesi vale 250 :ciapet:
meglio oggi invece, spendi 800 ogni 2 anni per un +20 % a pari fascia :rotfl:
Da quello che ricordo hanno rimosso solo la parte 32bit, quella a 64bit dovrebbe continuare a funzionare, ma ironicamente proprio nei vecchi titoli si aveva l'uso più impattante XD
Vedi Batman, Alice, mirror Edge... gli levi phyx e praticamente rimuovi la maggior parte degli effetti particellari... Potevano almeno creare un wrapper o un emulatore, o qualcosa per mitigare, invece nada...
Però, si può comunque utilizzare una seconda gpu, anche una GT710 giusto per il calcolo physx, cosa che si faceva anche al tempo con le schede amd, io ho ancora la 9600gt nel cassetto che al tempo usavo con la 5870 XDÈ ancora possibile utilizzare questa soluzione con Windows 11?
Ci sono problemi di compatibilità da valutare?
Inviato dal mio moto g75 5G utilizzando Tapatalk
Da quello che ricordo hanno rimosso solo la parte 32bit, quella a 64bit dovrebbe continuare a funzionare, ma ironicamente proprio nei vecchi titoli si aveva l'uso più impattante XD
Vedi Batman, Alice, mirror Edge... gli levi phyx e praticamente rimuovi la maggior parte degli effetti particellari... Potevano almeno creare un wrapper o un emulatore, o qualcosa per mitigare, invece nada...
Però, si può comunque utilizzare una seconda gpu, anche una GT710 giusto per il calcolo physx, cosa che si faceva anche al tempo con le schede amd, io ho ancora la 9600gt nel cassetto che al tempo usavo con la 5870 XD
E’ ancora possibile fare questa soluzione con Windows 11?
Ci sono dei problemi di compatibilità?
meglio oggi invece, spendi 800 ogni 2 anni per un +20 % a pari fascia :rotfl:
Però con una scheda di fascia medio alta si tira avanti bene per un paio di generazioni, per cui si può tirare avanti almeno per oltre 3 anni senza grosse rinuncie
Inviato dal mio moto g75 5G utilizzando Tapatalk
sta sparendo anche g-sync
Ma g-sync come standard hardware è stato soppiantato da adaptive sync la versione open per tutti.
Physx invece è sparito punto e basta.
mikael84
20-10-2025, 17:33
thread sistemato.
ninja750
22-10-2025, 09:50
riprendendo i rumour su AT0/AT2/AT3/AT4
per quello che valgono gli ultimi presunti leak darebbero LPDDR5X per AT3/AT4 e GDDR7 per AT0/AT2
LPDDR5X sarebbero fatte da samsung 10.7gbps sul 12nm e si trovano attualmente in configurazione 12gb/16gb/24gb/32gb, dipendentemente da cosa sceglierà AMD per il bus soprattutto lato costi/perf la soluzione 16gb sembra la solita più equilibrata a meno che non voglia allinearsi alla barbonaggine di jensen potendo a questo giro apparentemente proporre 12gb sul 256bit
micron invece sembra avere solo moduli da 16 a salire quindi vedremo come evolverà la cosa
GDDR7 (pam3 o no, non si sa ancora) pare sia solo 16gb e dovendo essere montata sulla top top difficilmente sarà proposta in un quantitativo uguale a quella di taglio inferiore quindi è quasi scontato si punterà a 32gb portando però i costi della scheda alle stelle, pur con prestazioni e bandwith davvero notevoli (3x?)
il sunto della questione è che tolta AT0 che sarà un presunto mostro probabilmente non gaming oriented, la AT2 32gb potrebbe essere posizionata un po' troppo in alto cioè ben oltre 1000€ ma che permetterebbe ad AMD di affiancare (e superare anche grazie al migliore pp?) la teorica futura RTX6080
mentre AT3 12gb (16?) parrebbe fin troppo staccata anche e soprattutto come prezzo
È ancora possibile utilizzare questa soluzione con Windows 11?
Ci sono problemi di compatibilità da valutare?
Inviato dal mio moto g75 5G utilizzando Tapatalk
Per nvidia si, per amd serve la mod Hybrid PhysX che funziona solo sui titoli a 32bit, e c'è da fare qualche test con Windows 11 perchè potrebbe effettivamente cozzare.
Qua c'è l'elenco completo di quelli a 32bit che dovrebbero fungere con la mod:
https://www.resetera.com/threads/rtx-50-series-gpus-have-dropped-support-for-32-bit-physx-many-older-pc-games-are-impacted-mirrors-edge-borderlands-etc.1111698/
Quelli successivi con physx64 serve necessariamente una gpu nvidia come primaria, e gli effetti fungono anche sulle 5000 senza necessità di una vecchia gpu.
Ma g-sync come standard hardware è stato soppiantato da adaptive sync la versione open per tutti.
Physx invece è sparito punto e basta.
Sparito no, se non ricordo male è diventato opensource, e anche i titoli più recenti che lo usano accelerano via cpu tipo i remake di Mafia, c'è solo una piccola fetta di titoli physx64, prima che diventasse open ad essere limitati sulle gpu AMD, tipo AC Black Flag o alcuni giochi batman: city/origin.
Windtears
22-10-2025, 17:45
Sparito no, se non ricordo male è diventato opensource
no gsync non è e non sarà mai opensource è nvidia che con il suo "marketing aggressivo" ha rinominato l'adaptive sync (lo STANDARD) con gsync compatible.
no gsync non è e non sarà mai opensource è nvidia che con il suo "marketing aggressivo" ha rinominato l'adaptive sync (lo STANDARD) con gsync compatible.
Parlavamo di physx, non vedo cosa centri il gsync...
Edit: errore mio, ho mixato i due messaggi XD
mikael84
22-10-2025, 18:06
riprendendo i rumour su AT0/AT2/AT3/AT4
per quello che valgono gli ultimi presunti leak darebbero LPDDR5X per AT3/AT4 e GDDR7 per AT0/AT2
LPDDR5X sarebbero fatte da samsung 10.7gbps sul 12nm e si trovano attualmente in configurazione 12gb/16gb/24gb/32gb, dipendentemente da cosa sceglierà AMD per il bus soprattutto lato costi/perf la soluzione 16gb sembra la solita più equilibrata a meno che non voglia allinearsi alla barbonaggine di jensen potendo a questo giro apparentemente proporre 12gb sul 256bit
micron invece sembra avere solo moduli da 16 a salire quindi vedremo come evolverà la cosa
GDDR7 (pam3 o no, non si sa ancora) pare sia solo 16gb e dovendo essere montata sulla top top difficilmente sarà proposta in un quantitativo uguale a quella di taglio inferiore quindi è quasi scontato si punterà a 32gb portando però i costi della scheda alle stelle, pur con prestazioni e bandwith davvero notevoli (3x?)
il sunto della questione è che tolta AT0 che sarà un presunto mostro probabilmente non gaming oriented, la AT2 32gb potrebbe essere posizionata un po' troppo in alto cioè ben oltre 1000€ ma che permetterebbe ad AMD di affiancare (e superare anche grazie al migliore pp?) la teorica futura RTX6080
mentre AT3 12gb (16?) parrebbe fin troppo staccata anche e soprattutto come prezzo
Micron è partner nvidia, non lo vedremo su AMD (per ora neppure li).
Dalla prossime serie, mi aspetto di vedere le full G7, con il modulino da 3GB, già usato ora con la mobile 5090, le work e sarà standard per vari modelli con le super.
Un 256bit, passerebbe a 24gb.
Windtears
22-10-2025, 18:17
Parlavamo di physx, non vedo cosa centri il gsync...
Edit: errore mio, ho mixato i due messaggi XD
no problem, figurati.
Micron è partner nvidia, non lo vedremo su AMD (per ora neppure li).
Dalla prossime serie, mi aspetto di vedere le full G7, con il modulino da 3GB, già usato ora con la mobile 5090, le work e sarà standard per vari modelli con le super.
Un 256bit, passerebbe a 24gb.
Sarebbe anche ora, si evitano i design a conchiglia e i chip sono meglio bilanciati come rapporto prestazioni/vram.
ninja750
24-10-2025, 08:50
presentata Radeon AI Pro R9700
https://www.hwupgrade.it/news/skvideo/amd-sfida-nvidia-con-una-gpu-ai-da-32-gb-a-soli-1299-dollari_145273.html
è sostanzialmente una 9070XT ma 300w TDP con ben 32gb com'è possibile? clock abbassati? parlano di boost 2900+mhz
presentata Radeon AI Pro R9700
https://www.hwupgrade.it/news/skvideo/amd-sfida-nvidia-con-una-gpu-ai-da-32-gb-a-soli-1299-dollari_145273.html
è sostanzialmente una 9070XT ma 300w TDP con ben 32gb com'è possibile? clock abbassati? parlano di boost 2900+mhz
In che senso?
Se una 9600xt ha 16GB su un 128bit, perchè una 9070xt su un 256bit non può averne 32? Sono configurate in clamshell, quindi moduli sopra e sotto.
Il clock penso faccia riferimento al core, la bandwith rimane la stessa di 640gb/s, sono sempre GDDR6:
https://www.hwupgrade.it/immagini/amd-r9700-1-18-07-2025.webp
ninja750
24-10-2025, 11:32
In che senso?
che mi aspettavo un TDP tipo 360w
che mi aspettavo un TDP tipo 360w
Con un blower è già tanto che non sia cappata a 250w
presentata Radeon AI Pro R9700
https://www.hwupgrade.it/news/skvideo/amd-sfida-nvidia-con-una-gpu-ai-da-32-gb-a-soli-1299-dollari_145273.html
è sostanzialmente una 9070XT ma 300w TDP con ben 32gb com'è possibile? clock abbassati? parlano di boost 2900+mhz
Quasi sempre le schede professionali sono clocckate meno delle versioni gaming, anche perché i TDP sono importanti nella progettazione dei raffreddamenti in prodotti che vanno certificati (Workstation/Server).
Detto in un'intervista, tale Chris Hall, Senior Director Software Development di AMD.
Quindi non è proprio una comunicazione ufficiale per non è manco un leak di un tizio cinese che ha un cugino che conosce qualcuno.
Non lo so, con il recente annuncio dello status legacy delle RX 6000, comincio ad avere dubbi che RedStone supporterà anche RDNA2.
Sembra che il loro focus sarà solo sulle 7000/9000...
Windtears
31-10-2025, 19:51
Non lo so, con il recente annuncio dello status legacy delle RX 6000, comincio ad avere dubbi che RedStone supporterà anche RDNA2.
Sembra che il loro focus sarà solo sulle 7000/9000...
non sono in legacy mode, ma maintanance (termine che non vuole dire niente e mi sarei risparmiato) e si, sono stati dei dementi potevano continuare a non ottimizzare per rdna1-2 come fanno da anni e non dire niente, ma hanno fatto coming out come dei polli (su questo non riescono ad imitare nvidia, peccato) e ora hanno dovuto specificare che per giochi "popolari" ci saranno ottimizzazioni anche per rdna1-2... quindi gta 6 e saluti a tutti.
redstone su rdna2 la vedo dura, già secondo me su rdna 3 sarà parziale (solo fsr4 niente reconstruction ecc.) per effetto dei cali prestazionali, ma si vedrà.
Di certo in amd ci vuole qualcuno che abbia cervello e scriva meno kazzate e si concentri più sui driver, stanno vanificando tre anni di stabilità con ste mosse e non fanno bene al "brand" di cui dicono vogliono rilanciare l'immagine.
Non commento invece su come viene riportata la news in tanti posti, ci vorrebbe meno parzialità, più coerenza e il coraggio di contattare amd direttamente e non dare solo voci alle pance verdi piene di bile...
si infatti perché così facendo fanno passare il messaggio che abbandonano il vecchio invece Nvidia ti dice che il Dlss4 va anche sulla vecchia 3070. (ti mette l'asterisco ma intanto ti dice che va il dlss4 ed è vero, AMD?)
si infatti perché così facendo fanno passare il messaggio che abbandonano il vecchio
Infatti sì, il messaggio per come è stato dato crea confusione, e alla fine potrebbe persino scoraggiare qualcuno dal considerare la serie 9000.
Anche perché RDNA2 non è affatto "vecchia" come architettura, è ancora recente ed è presente in parecchie SKU attuali, incluse diverse APU.
Io mi sono già legato al dito, il blocco intenzionale dei driver ufficiali sulle APU della serie Z, fino a marzo si potevano installare manualmente, poi cambio di rotta di AMD e si è vincolati agli OEM...
Nvidia ti dice che il Dlss4 va anche sulla vecchia 3070. (ti mette l'asterisco ma intanto ti dice che va il dlss4 ed è vero, AMD?)
Per Nvidia la situazione è stata diversa.
Già nel passaggio da Pascal a Turing si è beccata la sua shit storm... visto che il DLSS era esclusivo di Turing, però con il senno di poi, dopo più di 7 anni, ci ritroviamo gpu turing ancora supportate.
AMD al contrario supportando l’FSR su praticamente qualsiasi HW, incluso maxwell, ha seguito un approccio più ampio fin dall’inizio, che però oggi paga lo scotto, e unito a una comunicazione che è quella che è, crea questi disagi...
Il famoso reparto marketing amd, fiore all'occhiello della comunicazione dell'azienda :asd:.
Infatti sì, il messaggio per come è stato dato crea confusione, e alla fine potrebbe persino scoraggiare qualcuno dal considerare la serie 9000.
Anche perché RDNA2 non è affatto "vecchia" come architettura, è ancora recente ed è presente in parecchie SKU attuali, incluse diverse APU.
Io mi sono già legato al dito, il blocco intenzionale dei driver ufficiali sulle APU della serie Z, fino a marzo si potevano installare manualmente, poi cambio di rotta di AMD e si è vincolati agli OEM...
Per Nvidia la situazione è stata diversa.
Già nel passaggio da Pascal a Turing si è beccata la sua shit storm... visto che il DLSS era esclusivo di Turing, però con il senno di poi, dopo più di 7 anni, ci ritroviamo gpu turing ancora supportate.
AMD al contrario supportando l’FSR su praticamente qualsiasi HW, incluso maxwell, ha seguito un approccio più ampio fin dall’inizio, che però oggi paga lo scotto, e unito a una comunicazione che è quella che è, crea questi disagi...
ma l'unica vera shitshorm è stata la vram della 3070 mi sa ....
ma l'unica vera shitshorm è stata la vram della 3070 mi sa ....
Quella è la seconda XD
Anche se personalmente, ritengo peggio i 10GB di 3080, che gli 8 di 3070.
mikael84
01-11-2025, 16:28
Infatti sì, il messaggio per come è stato dato crea confusione, e alla fine potrebbe persino scoraggiare qualcuno dal considerare la serie 9000.
Anche perché RDNA2 non è affatto "vecchia" come architettura, è ancora recente ed è presente in parecchie SKU attuali, incluse diverse APU.
Io mi sono già legato al dito, il blocco intenzionale dei driver ufficiali sulle APU della serie Z, fino a marzo si potevano installare manualmente, poi cambio di rotta di AMD e si è vincolati agli OEM...
Per Nvidia la situazione è stata diversa.
Già nel passaggio da Pascal a Turing si è beccata la sua shit storm... visto che il DLSS era esclusivo di Turing, però con il senno di poi, dopo più di 7 anni, ci ritroviamo gpu turing ancora supportate.
AMD al contrario supportando l’FSR su praticamente qualsiasi HW, incluso maxwell, ha seguito un approccio più ampio fin dall’inizio, che però oggi paga lo scotto, e unito a una comunicazione che è quella che è, crea questi disagi...
AMD con turing ha cambiato finalmente ISA e preparato una scheda futuribile, in questi 7 anni, ha solo lavorato di microarchitettura, affinando, o migliorando alcuni aspetti, come le OFA, dove nvidia ha negato il FG alle precedenti.
Il DLSS4, lavora via FP, grazie alle FP8 e emulato con le FP16 che turing integra perfettamente. Non solo, ha una gestione degli interi, seppur in ratio inferiore, equiparabile a RDNA4, considerando che per fare interi RDNA3 deve emularle via FP.
Integra BVH in hardware, AMD per imitarlo, sta provando vari trucchetti, ma è ancora negato dall'ISA. Non solo, ha un'ISA che gli rende praticamente impossibile fare del Path tracing.
Il cambio ISA da GCN a RDNA, è stato un cambio quasi paragonabile a Kepler vs maxwell, e con le varie versioni, si sta mettendo in gioco, ma con tutti i limiti dell'ISA attuale.
Con UDNA dovrebbe esserci la svolta, dopo 4 gen. di lavori microarchitetturali.
Molte scelte, sono legate anche all'ISA, come GCN che migliorava, ma GCN era sempre quello, affinato dalle 7970 a vega.
AMD con turing ha cambiato finalmente ISA e preparato una scheda futuribile, in questi 7 anni, ha solo lavorato di microarchitettura, affinando, o migliorando alcuni aspetti, come le OFA, dove nvidia ha negato il FG alle precedenti.
Il DLSS4, lavora via FP, grazie alle FP8 e emulato con le FP16 che turing integra perfettamente. Non solo, ha una gestione degli interi, seppur in ratio inferiore, equiparabile a RDNA4, considerando che per fare interi RDNA3 deve emularle via FP.
Integra BVH in hardware, AMD per imitarlo, sta provando vari trucchetti, ma è ancora negato dall'ISA. Non solo, ha un'ISA che gli rende praticamente impossibile fare del Path tracing.
Il cambio ISA da GCN a RDNA, è stato un cambio quasi paragonabile a Kepler vs maxwell, e con le varie versioni, si sta mettendo in gioco, ma con tutti i limiti dell'ISA attuale.
Con UDNA dovrebbe esserci la svolta, dopo 4 gen. di lavori microarchitetturali.
Molte scelte, sono legate anche all'ISA, come GCN che migliorava, ma GCN era sempre quello, affinato dalle 7970 a vega.
il BVH aiuta moltissimo per le prestazioni se non sbaglio
evita inutili calcoli
ninja750
11-11-2025, 12:52
alle 19 italiane amd financial analyst day 2025
ci si aspettano annunci e aggiornamenti sulla roadmap
nell'ultimo fatto nel 2022 annunciarono rdna3 con il +50% claim perf/watt ecc
mi aspetto minimo una conferma su udna o su rdna5 che dicano dove vogliono muoversi
e perchè no su redstone
EddieTheHead
11-11-2025, 14:55
beh redstone doveva uscire Q4 2025 se non ne parlano nemmeno non promette bene :rolleyes:
beh redstone doveva uscire Q4 2025 se non ne parlano nemmeno non promette bene :rolleyes:Con le grandi doti comunicative di AMD forse é anche meglio così 🤣
Quando sarà pronto e finalizzato vediamo sul campo.
Inviato dal mio M2012K11AG utilizzando Tapatalk
ninja750
12-11-2025, 09:28
purtroppo nessun annuncio e solo questa slide volutamente inutile
https://i.postimg.cc/rFRcsSJh/AMD-RDNA5-ROADMAP-1200x624.jpg
:stordita:
Ale55andr0
12-11-2025, 14:23
Se le gen durano due anni cosa vi aspettavate dicessero? Pare non arrivi nemmeno il refresh verde figuriamoci che poteva annunciare o mostrare AMD lato GPU..
OrazioOC
12-11-2025, 15:05
Se le gen durano due anni cosa vi aspettavate dicessero? Pare non arrivi nemmeno il refresh verde figuriamoci che poteva annunciare o mostrare AMD lato GPU..
Al momento lato DIY è tutto fermo, per non parlare poi della situazione surreale sulle ram. :doh:
Attualmente secondo me si a nvidia che Amd non hanno nessuna intenzione di far uscire nuove generazioni di GPU.
Piu' che altro con l'avvendo dei frame generator, FSR, DLSS sempre migliori non si ha piu' tanta necessita' a "breve" di avere sotto al "culo" nuove GPU, che poi andrebbero a costare in media il 30% in piu' della vecchia generaizione partendo dai prezzi odierni alquanto gonfiati per poi non essere ripagati per quel 30% in piu' in termini di prestazioni o novita' grafiche.
L'esperienza che ho con l'attuale 6700Xt e con giochi come CP2077 con attivato l'FSR4 tramite programmino esterno e RT attivo con qualita' grafica a dir poco eccellente ti fanno capire che, ad esempio, personalmente sto bene cosi' fino a che non trovo una generazione di GPU che mi dia veramente qualche cosa in piu' senza ricorrere a stronzatine varie.
Cutter90
12-11-2025, 15:22
Attualmente secondo me si a nvidia che Amd non hanno nessuna intenzione di far uscire nuove generazioni di GPU.
Piu' che altro con l'avvendo dei frame generator, FSR, DLSS sempre migliori non si ha piu' tanta necessita' a "breve" di avere sotto al "culo" nuove GPU, che poi andrebbero a costare in media il 30% in piu' della vecchia generaizione partendo dai prezzi odierni alquanto gonfiati per poi non essere ripagati per quel 30% in piu' in termini di prestazioni o novita' grafiche.
L'esperienza che ho con l'attuale 6700Xt e con giochi come CP2077 con attivato l'FSR4 tramite programmino esterno e RT attivo con qualita' grafica a dir poco eccellente ti fanno capire che, ad esempio, personalmente sto bene cosi' fino a che non trovo una generazione di GPU che mi dia veramente qualche cosa in piu' senza ricorrere a stronzatine varie.
Sono di fatto "costretti" a rallentare anche per colpa delle SH, incapaci di programmare e di fare salti grafici/tecnici degni di nota da almeno 5 anni, salvo rare eccezioni.
Più che altro nella fascia media i salti sono risicati...
Alla fine tra un 6800 che prendevi sui 400-450€ 4 anni fa, e una 9600xt 16GB sui 350-380€ non è che ci passi chissà che divario, ne prestazionale e neanche economico.
Certo rispetto la concorrenza siamo messi meglio, ma in proporzione alle sku maggiori c'è proprio stagnazione...
mikael84
12-11-2025, 16:09
Attualmente secondo me si a nvidia che Amd non hanno nessuna intenzione di far uscire nuove generazioni di GPU.
Piu' che altro con l'avvendo dei frame generator, FSR, DLSS sempre migliori non si ha piu' tanta necessita' a "breve" di avere sotto al "culo" nuove GPU, che poi andrebbero a costare in media il 30% in piu' della vecchia generaizione partendo dai prezzi odierni alquanto gonfiati per poi non essere ripagati per quel 30% in piu' in termini di prestazioni o novita' grafiche.
L'esperienza che ho con l'attuale 6700Xt e con giochi come CP2077 con attivato l'FSR4 tramite programmino esterno e RT attivo con qualita' grafica a dir poco eccellente ti fanno capire che, ad esempio, personalmente sto bene cosi' fino a che non trovo una generazione di GPU che mi dia veramente qualche cosa in piu' senza ricorrere a stronzatine varie.
Sono di fatto "costretti" a rallentare anche per colpa delle SH, incapaci di programmare e di fare salti grafici/tecnici degni di nota da almeno 5 anni, salvo rare eccezioni.
Sono impegnatissime nel settore HPC, non so se avete visto Rubin e CDNA4 MI400/MI450. Per queste GPU usano una infinità di wafer.
Le schede gaming, probabilmente nel 2027, non prima. RDNA4 addirittura c'è 8 mesi scarsi sul mercato.
Cutter90
12-11-2025, 16:33
Più che altro nella fascia media i salti sono risicati...
Alla fine tra un 6800 che prendevi sui 400-450€ 4 anni fa, e una 9600xt 16GB sui 350-380€ non è che ci passi chissà che divario, ne prestazionale e neanche economico.
Certo rispetto la concorrenza siamo messi meglio, ma in proporzione alle sku maggiori c'è proprio stagnazione...
Siamo sempre li. Se schede di fascia media arrivano a maxare i giochi in 4k/2k e a superare i 60 fps ecco che nessun comprerebbe più la fascia alta. Quindi i salti sono minuscoli per non pestare i piedi alle altre fasce.
Siamo sempre li. Se schede di fascia media arrivano a maxare i giochi in 4k/2k e a superare i 60 fps ecco che nessun comprerebbe più la fascia alta. Quindi i salti sono minuscoli per non pestare i piedi alle altre fasce.
Vabbè anche i giochi diventano più esosi, ma l'utente che punta al chip di fascia alta lo prenderà sempre, vedi tutti quelli che hanno speso 2500-3000€ per la 5090.
Più che altro nella fascia media vedo proprio uno sbilanciamento dei chip, iniziando già dai tagli di vram.
La stessa 9060xt 16GB fa concorrenza a se stessa con il taglio da 8 :sofico:
EddieTheHead
12-11-2025, 21:32
beh non pensavo certo presentassero nuove schede, ma almeno una o due cacchio di paroline su Redstone me le aspettavo (anche perchè è roba che ti funziona anche come marketing in ambito AI)
sperem :rolleyes:
Evilquantico
13-11-2025, 11:30
Sono di fatto "costretti" a rallentare anche per colpa delle SH, incapaci di programmare e di fare salti grafici/tecnici degni di nota da almeno 5 anni, salvo rare eccezioni.
Quoto , avevo fatto un post a riguardo non mi ricordo piu in quale argomento , dove parlavo dell'inizio della spinta delle prime schede acceleratrici 3D per PC nella metà degli anni 90 anche grazie alla novità delle CPU/GPU di PS1 e PS2 che di conseguenza hanno spinto tutta l'industria di videogiochi a sperimentare e osare , oggi abbiamo una potenza devastante lato HW ma i giochi...
ninja750
13-11-2025, 16:02
ci siamo
https://i.postimg.cc/Pr7gx8tC/Immagine-2025-11-13-160143.png
cristiankim
13-11-2025, 18:15
ci siamo
https://i.postimg.cc/Pr7gx8tC/Immagine-2025-11-13-160143.pngChe cosa fa?
Domani esce Redstone ?
https://youtu.be/p88YsQC_y8s?si=LmbSwlPPS-1pCm0S
Inviato dal mio moto g75 5G utilizzando Tapatalk
ninja750
13-11-2025, 20:20
direi proprio di si!
EddieTheHead
13-11-2025, 20:42
non vedo l'ora che venga confermato RDNA2 niente FSR4
direi proprio di si!Beh considerando che 2 giorni fa c'è stato un evento e non hanno parlato nemmeno di striscio, come sempre pronti a perdere le occasioni buone.
D'altronde a chi interessa utilizzare la cassa di risonanza di Cod con un lancio imminente
Inviato dal mio moto g75 5G utilizzando Tapatalk
ninja750
14-11-2025, 08:44
usciti 25.11.1 senza redstone
anche perchè voglio dire, come avete notato non ne hanno parlato mercoledì
quindi sembra che la prima feature sia solo in quel gioco
ninja750
14-11-2025, 16:36
qui comparativa side by side ray regeneration
https://www.youtube.com/watch?v=Wx2q4xmEY64
qui comparativa side by side ray regeneration
https://www.youtube.com/watch?v=Wx2q4xmEY64
Direi che la differenza è abbastanza evidente, non che giocando a COD la guarderà qualcuno, però c'è :asd:
Come ha fatto il video il tizio mi fa vanire mal di testa però.
Evilquantico
14-11-2025, 17:24
ci siamo
https://i.postimg.cc/Pr7gx8tC/Immagine-2025-11-13-160143.png
:cool: :cool: :cool: E' solo l'inizio
mikael84
14-11-2025, 17:36
usciti 25.11.1 senza redstone
anche perchè voglio dire, come avete notato non ne hanno parlato mercoledì
quindi sembra che la prima feature sia solo in quel gioco
Mi sarei aspettato anche qualche supporto fsr4 ufficiale in più...
Per il RR è già un inizio.
Windtears
14-11-2025, 19:37
Mi sarei aspettato anche qualche supporto fsr4 ufficiale in più...
Per il RR è già un inizio.
mettiamola così, se cominciano a presentare una feature per volta e "funziona" senza i soliti problemi sarebbe già un passo avanti.
Mi sarei aspettato anche qualche supporto fsr4 ufficiale in più...
Per il RR è già un inizio.
Non supportano già FSR 4 in tutti i giochi con FSR 3.1?
Non supportano già FSR 4 in tutti i giochi con FSR 3.1?
Vabbè oramai con optiscaler è supportato anche laddove c'è solo il dlss :sofico:
Alla fine è sempre la community che spreme al meglio questi chip...
Windtears
15-11-2025, 10:55
Non supportano già FSR 4 in tutti i giochi con FSR 3.1?
si, il driver fa l'enforce.
mikael84
15-11-2025, 12:13
Non supportano già FSR 4 in tutti i giochi con FSR 3.1?
si, il driver fa l'enforce.
Errore mio, talmente tanto che non giocavo che l'avevo dimenticato. Confermo, provato ora. ;)
Per la serie, quando AMD ha una buona offerta, ma ci pensa il marketing di AMD a scontentare i clienti con annunci fallaci sui driver...
I nuovi driver danno un boost si COD 7 con le RX 6900 ma non lo danno con le rx 7700...
https://youtu.be/Tq8DSKk_b20?si=4-doxozFUSObqg1K
Inviato dal mio moto g75 5G utilizzando Tapatalk
EddieTheHead
15-11-2025, 16:17
francamente aspetterei anche altri pareri
il portoghese è leggermente di parte
quando venne fuori il fattaccio faceva le piroette al contrario epr difendere AMD
francamente aspetterei anche altri pareri
il portoghese è leggermente di parte
quando venne fuori il fattaccio faceva le piroette al contrario epr difendere AMDIn realtà è molto onesto, è sempre tra i primi a segnalare i bug non risolti.
Lui stesso dice che non sa se le rx 7000 top abbiano avuto ottimizzazioni, ha provato la 7700.
Come non sa se le 6700 abbiano avuto miglioramenti.
Infatti afferma che dalle sue ultime analisi sembra che le 7700 siano una release driver dietro. Forse AMD ottimizza prima le top, e poi le mid.
Nel caso specifico è pacifico che sia partita una isteria collettiva immotivata
.
Se qualcuno avesse una RX 6900 , può darci riscontro su COD 7.
Inviato dal mio moto g75 5G utilizzando Tapatalk
Gundam1973
16-11-2025, 04:27
In realtà è molto onesto, è sempre tra i primi a segnalare i bug non risolti.
Lui stesso dice che non sa se le rx 7000 top abbiano avuto ottimizzazioni, ha provato la 7700.
Come non sa se le 6700 abbiano avuto miglioramenti.
Infatti afferma che dalle sue ultime analisi sembra che le 7700 siano una release driver dietro. Forse AMD ottimizza prima le top, e poi le mid.
Nel caso specifico è pacifico che sia partita una osteria collettiva immotivata
.
Se qualcuno avesse una RX 6900 , può darci riscontro su COD 7.
Inviato dal mio moto g75 5G utilizzando Tapatalk
Se volete test specifici posso farveli
Per la serie, quando AMD ha una buona offerta, ma ci pensa il marketing di AMD a scontentare i clienti con annunci fallaci sui driver...
I nuovi driver danno un boost si COD 7 con le RX 6900 ma non lo danno con le rx 7700...
https://youtu.be/Tq8DSKk_b20?si=4-doxozFUSObqg1K
Inviato dal mio moto g75 5G utilizzando Tapatalk
pensi che non lo hanno fatto apposta?
per mettere a tacere le malelingue e i sospetti per il taglio supporto alle vecchie gpu.. :O
ninja750
17-11-2025, 09:21
Mi sarei aspettato anche qualche supporto fsr4 ufficiale in più...
Per il RR è già un inizio.
mettiamola così, se cominciano a presentare una feature per volta e "funziona" senza i soliti problemi sarebbe già un passo avanti.
dal video comparativo di daniel owen dice che il RR amd in quel gioco SEMBRA migliore di quello nvidia. detto sempre da lui che forse non esiste gioco peggiore per provare RT o RR
ninja750
17-11-2025, 09:22
In realtà è molto onesto, è sempre tra i primi a segnalare i bug non risolti.
Lui stesso dice che non sa se le rx 7000 top abbiano avuto ottimizzazioni, ha provato la 7700.
Come non sa se le 6700 abbiano avuto miglioramenti.
Infatti afferma che dalle sue ultime analisi sembra che le 7700 siano una release driver dietro.
le 7700 hanno un bug che amd sta investigando e ne sono già al corrente, dicono potrebbero risolvere dalla prossima release l'ho letto direttamente da uno di amd
pensi che non lo hanno fatto apposta?
per mettere a tacere le malelingue e i sospetti per il taglio supporto alle vecchie gpu.. :O
Sospetti giusti piu' che altro dopo la mia esperienza con CP2077 + FSR4 forzato con OptiScaler (file "scappati per caso") che fa girare questo gioco con la configurazione in firma con RT sparato alto con FPS del tutto ragguardevoli e senza avere problemi di sorta.
Quindi e' come le aziende che aggionano gli smartphone facendoli invecchiare improvvisamente dall'oggi al domani i driver delle vecchie GPU non vengono ottimizzati, specialmente in questo momento dove da quello che mi pare di capire, ma potrei sbagliare, il mondo delle GPU Gaming si e' un po' fermato perche' stanno tutti concentrati sui modelli IA.
Il problema prestazionale non lo risolvi così, già su RDNA3, l'FSR4 in performance ti pesa a metà strada tra lo step quality e bilanciato del 3.x, sicuramente migliore per qualità e accettabile come compromesso.
Però su RDNA2 la perdita è maggiore e mi pare venisse completamente emulato, a mio parere già se riescono a portare l'FSR3.x al pari dell'XESS di intel è grasso che cola, ma per l'FSR4 mi pare una scelta quasi obbligata concentrarsi su RDNA3/4.
StylezZz`
17-11-2025, 16:27
Come prestazioni siamo lì considerando che FSR4 Balanced/Performance è superiore a FSR3 Quality...
Come prestazioni siamo lì considerando che FSR4 Balanced/Performance è superiore a FSR3 Quality...
Già FSR3 bilanciato tira su più fps, su schede di fascia alta si nota poco ma scalando verso il basso soprattutto dove ti servono prestazioni fai prima a usare Xess.
Ma si come detto su, FSR4 performance ha una qualità migliore anche del quality dell'FSR3 ma pesa comunque molto di più degli step bilanciato/performance del 3 con scende non RDNA4.
Già FSR3 bilanciato tira su più fps, su schede di fascia alta si nota poco ma scalando verso il basso soprattutto dove ti servono prestazioni fai prima a usare Xess.
Ma si come detto su, FSR4 performance ha una qualità migliore anche del quality dell'FSR3 ma pesa comunque molto di più degli step bilanciato/performance del 3 con scende non RDNA4.
Il caso peggiore per differenza di performance su RDNA2 è questo e direi che tra FSR 4 performance e FSR 3 quality la differenza di prestazioni è irrilevante, parliamo del 2% di differenza.
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)
Ma poco importa perché la qualità restituita è talmente differente che bisogna essere matti per usare FSR 3 al posto del 4 per avere una manciata di FPS in più.
Cioè se proprio vuoi qualche fps in più piuttosto abbassa qualcosa nelle impostazioni.
Imho non esiste nessun problema prestazionale per FSR 4 su RDNA 2.
ninja750
18-11-2025, 10:29
confermo per le prestazioni
solo che l'unico tweak che ho provato ad oggi è last of us parte 2 dove fsr4 INT8 su RX6800 crea un ghosting netto e visibile, che praticamente non c'è con il fsr 3.1.3 o xess.. quindi tocca giocarlo alla moda vecchia
Il problema è che tieni conto che ti bastasse l'FSR quality per avere un frame decente :sofico:
Su molte sku soprattutto mobile, non ti basta, io quando parlo di RDNA2/RDNA3 tengo conto anche di soluzioni come Deck e Z1E :fagiano:
Abbiamo una data :sofico:
https://cdn.videocardz.com/1/2025/11/FSR-REDSTONE-HERO-1200x624.jpg
EddieTheHead
18-11-2025, 19:07
"AMD Radeon RX9000 series" :fagiano:
immagino chi ha speso quasi mille euro per una 7900
OrazioOC
18-11-2025, 19:32
"AMD Radeon RX9000 series" :fagiano:
immagino chi ha speso quasi mille euro per una 7900
Era nell'aria, per certi versi una generazione sfortunata, un po' come le 3090/ti che non hanno ricevuto il FG. :rolleyes:
"AMD Radeon RX9000 series" :fagiano:
immagino chi ha speso quasi mille euro per una 7900
Io sotto casa di Jensen Huang
https://i.postimg.cc/sxb2SDrr/Screenshot-2025-11-18-203539.png
Era nell'aria, per certi versi una generazione sfortunata, un po' come le 3090/ti che non hanno ricevuto il FG. :rolleyes:
Non da nvidia :sofico:
Windtears
18-11-2025, 20:49
Non da nvidia :sofico:
infatti mi viene da ridere ogni volta che viene tirata fuori sta storia che il supporto sia maggiore dall'altra parte della barricata, quando ad ogni generazione dalla prima iterazione di rtx taglia qualcosa alla serie precedente (gtx compresa).
Sono entrambe compagnie assatanate di denaro non di "fede" dei propri consumatori.
EddieTheHead
18-11-2025, 21:22
'nzomm
chi ha una 2000, architettura di 7 anni fa, può usare dlss4 (per quanto non performante come schede più nuove)
chi ha RDNA2 (architettura più recente con nuovi prodotti usciti nel 2025) lo prende al chiurlo
non mi pare proprio lo stesso
le 4000 non hanno MFG ma tutto il resto sì per quel che ne so.
RNDA3 per ora ha un gran mazzo di niente, le 6000 lasciamo perdere :rolleyes:
'nzomm
chi ha una 2000, architettura di 7 anni fa, può usare dlss4 (per quanto non performante come schede più nuove)
chi ha RDNA2 (architettura più recente con nuovi prodotti usciti nel 2025) lo prende al chiurlo
non mi pare proprio lo stesso
le 4000 non hanno MFG ma tutto il resto sì per quel che ne so.
RNDA3 per ora ha un gran mazzo di niente, le 6000 lasciamo perdere :rolleyes:
esatto, ancora una volta AMD ha fatto schif0
mikael84
18-11-2025, 22:29
'nzomm
chi ha una 2000, architettura di 7 anni fa, può usare dlss4 (per quanto non performante come schede più nuove)
chi ha RDNA2 (architettura più recente con nuovi prodotti usciti nel 2025) lo prende al chiurlo
non mi pare proprio lo stesso
le 4000 non hanno MFG ma tutto il resto sì per quel che ne so.
RNDA3 per ora ha un gran mazzo di niente, le 6000 lasciamo perdere :rolleyes:
L'ISA del 2018 di nvidia (turing) ha segnato una rivoluzione, e salvo le FP8, è per certi versi avanti di RDNA4, come il bvh hardware e pieno supporto PT (poi gira come gira, ma può fare tutto).
Per DLSS4 ha i tensor, e quindi viene emulato via FP16.
L'ISA di base è aggiornata.
Lo stesso discorso lo si faceva con GCN, sempre stessa ISA, con varie aggiunte microarchitetturali, come ad esempio, il picco OFA per FG in lovelace.
L'ISA di RDNA nasce vecchia, rattoppata di gen. in gen. e prima o poi le magagne vengono fuori...
EddieTheHead
18-11-2025, 23:01
posso essere d'accordo su tutto, non discuto di limiti hardware invalicabili, ma qua si tratta di pezzenteria di AMD.
FSR4 su RDNA2 funziona ed è dimostrato (non parlo dell'intero redstone ovviamente, parlo solo dell'upscaler), se non arriva è semplicemente perchè se ne fregano di farlo arrivare. Idem su RDNA3.
Non sono un tecnico e mi correggerete ma mi pare di capire che RDNA3 (al contrario di 2) ha funzioni di accellerazione AI (tanto sbandierate al lancio e mai usate) all'interno delle compute unit anche se non ha AI core dedicati come RDNA4, quindi mi viene da pensare che oltre all'upscaler anche altre cose di Redstone potrebbero girare (magari non bene come sulle 9000, ma cmq potrebbero girare).
Se non arrivano, è perchè ad AMD tira il culo farle arrivare.
O magari arriveranno sulle 7000 per almeno salvare le apparenze, mesi dopo che sulle 9000.
Una compagnia seria il 10 Dicembre presenta tutto già funzionante perfettamente su tutte le schede possibili e immaginabili e magari abbassa pure i prezzi anche solo in maniera simbolica per mettere la freccia su nvidia (visto che da stime grossomodiane pare che le 9000 han venduto quanto blackwell).
Al 90% invece la maggior parte dei clienti Radeon (quindi non chi ha RDNA4 che in quanto schede nuove sono comunque poche) lo prende nel saccoccio.
E nonostante questo ci sarà cmq chi continua a difendere AMD.
A volte mi sembra che per alcuni AMD siano tre stronzi chiusi a lavorare nel garage di Lisa Su e non una compagnia che nel 2025 ha segnato profitti recordi di miliardi di dollari.
Ale55andr0
18-11-2025, 23:19
basta non foraggiare più l'una o l'altra parte a seconda dell'inculata che propinano
EddieTheHead
18-11-2025, 23:55
ah infatti stanti così le cose al prossimo giro (che cmq sarà fra anni se dio vuole) col cacchio che compro radeon
OH già a fasciarsi la testa e a insultare AMD per un filmatino da manco 30 secondi?
Siete seri?
Piantatela con i piagnistei continui.
Il 10 dicembre vedremo, forse uscirà solo per RDNA 4, forse solo inizialmente.
Ma diamine ogni volta date già tutto per spacciato.
OH già a fasciarsi la testa e a insultare AMD per un filmatino da manco 30 secondi?
Siete seri?
Piantatela con i piagnistei continui.
Il 10 dicembre vedremo, forse uscirà solo per RDNA 4, forse solo inizialmente.
Ma diamine ogni volta date già tutto per spacciato.
per come ha condotto la questione amd negli anni, sicuro che approda, castrata o meno, anche su RDNA3
my 2 cents
ah infatti stanti così le cose al prossimo giro (che cmq sarà fra anni se dio vuole) col cacchio che compro radeon
è dalla storia dei driver che stai ammorbando qualunque 3d con piagnistei su amd. per favore, la vendi e compri una verde cosi la smetti?
per come ha condotto la questione amd negli anni, sicuro che approda, castrata o meno, anche su RDNA3
my 2 cents
Infatti, sarebbe molto strano il contrario.
è dalla storia dei driver che stai ammorbando qualunque 3d con piagnistei su amd. per favore, la vendi e compri una verde cosi la smetti?
Veramente.
Poi "a sto giro col cacchio che prendo Radeon" e considerato che Nvidia ne ha combinate svariate di peggio immagino che al prossimo giro comprerà una Intel o una Matrox :asd:
state tutti sereni, scrivo solo
VKD3D-Proton 3.0
poi se volete date pure i vostri danari ad nvidia, comprate anche le sue azioni ...
state tutti sereni, scrivo solo
VKD3D-Proton 3.0
poi se volete date pure i vostri danari ad nvidia, comprate anche le sue azioni ...
Ringrazia Valve :sofico:
Ringrazia Valve :sofico:
sicuro, ma immagino che senza sinergie e aperture software AMD, valve non potrebbe implementare questi miglioramenti accessibili alla community.
In parole povere, con un soc nvidia, valve sarebbe stata in grado di fare altrettanto?
AMD sta mettendo a disposizione tutto in varie vie traverse, vuole solo togliersi le responsabilità di un supporto ufficiale per un hardware che non da più guadagno (chiamali fessi....).
Ma tutti piangono e acclamano nvidia.:doh:
sicuro, ma immagino che senza sinergie e aperture software AMD, valve non potrebbe implementare questi miglioramenti accessibili alla community.
In parole povere, con un soc nvidia, valve sarebbe stata in grado di fare altrettanto?
AMD sta mettendo a disposizione tutto in varie vie traverse, vuole solo togliersi le responsabilità di un supporto ufficiale per un hardware che non da più guadagno (chiamali fessi....).
Ma tutti piangono e acclamano nvidia.:doh:
sono perfettamente d'accordo
non le mette nei paper, ma vanno cmq
mikael84
19-11-2025, 12:01
posso essere d'accordo su tutto, non discuto di limiti hardware invalicabili, ma qua si tratta di pezzenteria di AMD.
FSR4 su RDNA2 funziona ed è dimostrato (non parlo dell'intero redstone ovviamente, parlo solo dell'upscaler), se non arriva è semplicemente perchè se ne fregano di farlo arrivare. Idem su RDNA3.
Non sono un tecnico e mi correggerete ma mi pare di capire che RDNA3 (al contrario di 2) ha funzioni di accellerazione AI (tanto sbandierate al lancio e mai usate) all'interno delle compute unit anche se non ha AI core dedicati come RDNA4, quindi mi viene da pensare che oltre all'upscaler anche altre cose di Redstone potrebbero girare (magari non bene come sulle 9000, ma cmq potrebbero girare).
Se non arrivano, è perchè ad AMD tira il culo farle arrivare.
O magari arriveranno sulle 7000 per almeno salvare le apparenze, mesi dopo che sulle 9000.
Una compagnia seria il 10 Dicembre presenta tutto già funzionante perfettamente su tutte le schede possibili e immaginabili e magari abbassa pure i prezzi anche solo in maniera simbolica per mettere la freccia su nvidia (visto che da stime grossomodiane pare che le 9000 han venduto quanto blackwell).
Al 90% invece la maggior parte dei clienti Radeon (quindi non chi ha RDNA4 che in quanto schede nuove sono comunque poche) lo prende nel saccoccio.
E nonostante questo ci sarà cmq chi continua a difendere AMD.
A volte mi sembra che per alcuni AMD siano tre stronzi chiusi a lavorare nel garage di Lisa Su e non una compagnia che nel 2025 ha segnato profitti recordi di miliardi di dollari.
RDNA3 e 2 possono fare FSR4 con gli interi non hanno FP8 fisicamente, RDNA3 è un tantino avvantaggiata perchè ha istruzioni WMMA matriciali, ma non ha tensor core alla nvidia.
Sono limiti microarchitetturali, ma volendo aggirabili, come, considerando i tempi di rendering, lo era anche il FG su Ampere (no turing).
Ps: In ogni caso evita certi toni!
alethebest90
19-11-2025, 12:07
sicuro, ma immagino che senza sinergie e aperture software AMD, valve non potrebbe implementare questi miglioramenti accessibili alla community.
In parole povere, con un soc nvidia, valve sarebbe stata in grado di fare altrettanto?
AMD sta mettendo a disposizione tutto in varie vie traverse, vuole solo togliersi le responsabilità di un supporto ufficiale per un hardware che non da più guadagno (chiamali fessi....).
Ma tutti piangono e acclamano nvidia.:doh:
ci sono errori che si pagano caro, però dai la strada che si sta aprendo sembra promettere bene.
Sinceramente io con una 6700XT non è che mi piango addosso se non vanno le utlime tecnologie, anzi credo sia anche il momento di comprare una scheda nuova...come sempre è stato ogni 2 GEN ci si pensa
EddieTheHead
19-11-2025, 12:29
è dalla storia dei driver che stai ammorbando qualunque 3d con piagnistei su amd
in effetti non hai torto
facciamo che me ne torno nel mio buco.
Tanto gli ultimi post dimostrano che ho ragione :D
Ps: In ogni caso evita certi toni!
ricevuto! :D
Tanto gli ultimi post dimostrano che ho ragione :D
Pari pari ai novax che girano dicendo che avevano ragione loro :asd:
Chi, cosa e quando dimostra che hai ragione? :what:
RDNA3 e 2 possono fare FSR4 con gli interi non hanno FP8 fisicamente, RDNA3 è un tantino avvantaggiata perchè ha istruzioni WMMA matriciali, ma non ha tensor core alla nvidia.
Sono limiti microarchitetturali, ma volendo aggirabili, come, considerando i tempi di rendering, lo era anche il FG su Ampere (no turing).
Ps: In ogni caso evita certi toni!
Alla fine con optiscaler puoi sempre sfruttarlo insieme al dlss anche su turing, e devo dire avrei rimpianto di più se avessero limitato il dlss4 con il transformer...
sicuro, ma immagino che senza sinergie e aperture software AMD, valve non potrebbe implementare questi miglioramenti accessibili alla community.
In parole povere, con un soc nvidia, valve sarebbe stata in grado di fare altrettanto?
AMD sta mettendo a disposizione tutto in varie vie traverse, vuole solo togliersi le responsabilità di un supporto ufficiale per un hardware che non da più guadagno (chiamali fessi....).
Ma tutti piangono e acclamano nvidia.:doh:
Su linux i driver nvidia non sono mai stati granchè, però dalla generazione turing è disponibile un driver opensource ed è in continuo miglioramento e ottimizzazione.
Ovviamente dato che amd produce cpu/gpu e da sempre ha dato supporto alla community incentivando le tecnologie opensource è sicuramente una scelta quasi obbligata se vuoi concorrere sui prezzi e avere una base software più matura.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.