PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 [348]

mikael84
25-09-2025, 12:23
Qua hanno testato la differenza tra FP8 e INT8.



https://www.youtube.com/watch?v=nSryNTfZu88

igiolo
25-09-2025, 12:53
ho fatto la mia prima build con una 9070 XT
nonostante le insistenze per una 5070ti del compratore, ma non volevo
vediamo come se la cava con FSR4 e RT

Mars95
25-09-2025, 14:03
Qua hanno testato la differenza tra FP8 e INT8.



https://www.youtube.com/watch?v=nSryNTfZu88

Qualitativamente parlando, visto così tramite YT, non mi sembra ci siano differenze.

ninja750
25-09-2025, 14:17
Qua hanno testato la differenza tra FP8 e INT8.



https://www.youtube.com/watch?v=nSryNTfZu88

ho zoomato i loro zoom e non vedo nessuna differenza, zero

in movimento meno di zero

insomma in un blind test impossibile stabilire quale delle due sia l'altro

per me è un risultato strepitoso se pensiamo l'hardware su cui gira e il modo raffazzonato con il quale viene provato

mikael84
25-09-2025, 14:45
Qualitativamente parlando, visto così tramite YT, non mi sembra ci siano differenze.

ho zoomato i loro zoom e non vedo nessuna differenza, zero

in movimento meno di zero

insomma in un blind test impossibile stabilire quale delle due sia l'altro

per me è un risultato strepitoso se pensiamo l'hardware su cui gira e il modo raffazzonato con il quale viene provato

Su the last of us 2 la differenza è evidente, alberi in lontanza, camper, ad esempio.

ninja750
25-09-2025, 15:14
Su the last of us 2 la differenza è evidente, alberi in lontanza, camper, ad esempio.

tlou2 non sembra fsr4

Mars95
25-09-2025, 15:43
Su the last of us 2 la differenza è evidente, alberi in lontanza, camper, ad esempio.

TLOU2 mi sembra faccia abbastanza schifo il preset quality secondo me non sta lavorando FSR, balanced invece sempre uguale a FP8 e meglio del nativo (con TAA sicuro) basti guardare il radiatore del furgone.

Evilquantico
26-09-2025, 18:43
ho fatto la mia prima build con una 9070 XT
nonostante le insistenze per una 5070ti del compratore, ma non volevo
vediamo come se la cava con FSR4 e RT

Bravissimo , siamo la RESISTENZA :D , poi fai sapere come ti trovi e chiedi qui se hai dubbi/problemi che ti aiutiamo tutti

cristiankim
26-09-2025, 19:29
Si anche a me sembra che su 9000 nativo l'fsr4 sia leggermente migliore. Diciamo che magari con la release dei driver e l'implementazione ufficiale riusciranno a rendere impercettibile qualsiasi differenza.

Sharkyz
27-09-2025, 14:57
Comunque alla fine ho provato FSR 4 con la rx5700 e si riesce ad abilitarlo in HZD remastered semplicemente sostituendo la DLL.
In game si può abilitare FSR 4 ma sostanzialmente non va, si vede a bassa risoluzione lampeggiante con aree nere non renderizzate.

Fa la stessa cosa con Vega
Ho provato con la mia sul muletto: optiscaler, driver vari, dll varie, niente, fa esattamente la stessa cosa.
Poco male comunque visto che il performance hit è bello pesante, non sarebbe stato utilizzabile.

Windtears
28-09-2025, 21:49
https://www.youtube.com/watch?v=fX893d_EmKU


amd sta cucinando tramite vari driver preview e update sdk:

1) supporto nativo su windows per pytorch con rocm 6.4 (non il 7)

2) hip ray tracing 3.0 che dovrebbe integrare ottimizzazioni lato RT per rdna4 come OBB

3) Distribuzione avanzata degli shader con il nuovo AGILITY SDK

EddieTheHead
29-09-2025, 15:19
tradotto x gli ignorantoni? :stordita:

ninja750
30-09-2025, 15:19
https://www.youtube.com/watch?v=fX893d_EmKU


amd sta cucinando tramite vari driver preview e update sdk:

1) supporto nativo su windows per pytorch con rocm 6.4 (non il 7)

2) hip ray tracing 3.0 che dovrebbe integrare ottimizzazioni lato RT per rdna4 come OBB

3) Distribuzione avanzata degli shader con il nuovo AGILITY SDK

4) ridisegnazione dell'apparato DGF

https://gpuopen.com/learn/animating-geometry-with-amd-dgf/

qualcuno provi a spiegarlo come fossimo bambini di 10 anni :help: :sofico:

Evilquantico
30-09-2025, 15:38
4) ridisegnazione dell'apparato DGF

https://gpuopen.com/learn/animating-geometry-with-amd-dgf/

qualcuno provi a spiegarlo come fossimo bambini di 10 anni :help: :sofico:

Mikael84 dove sei ??? abbiamo bisogno di capire :D

mikael84
30-09-2025, 17:26
Ho letto in modo veloce al momento, ma si parla di una tecnica di accelerazione BVH, ovvero la parte complessa nel RT per AMD perchè non ha pipeline hardware, ma è shader based.
DGF (Dense Geometry Format) un formato hardware-friendly per l'archiviazione di mesh triangolari compresse, ed è formato da 3 parti: un'intestazione, una parte geometrica (legata alla quantizzazione e compressione dei vertici) e una parte topologica (connessioni tra vertici per formare triangoli).

In parole sintetiche:
Se un modello si muove o si deforma, i triangoli cambiano forma/posizione, e la GPU deve aggiornare o ricostruire il BVH, tutto via shader, sprecando tanti cicli, al contrario di nvidia che ha RT core.
Con DGF i triangoli e le connessioni restano identici (topologia), cambiano solo le posizioni dei vertici, non interrompi gli shader per rifare la topologia e cercare nuovi triangoli, aggiorni solo le posizioni.

Calcolare solo la posizione dei vertici è banalissimo ed impiega pochissimo.
Esempio:
Ipotizziamo che BVH base impieghi 5-10ms, DGF potrebbe impiegarne 1-2.
Se facciamo 60fps, 5ms + 16,6ms, significano 21,6ms = 46fps circa.
Se da 60 impieghiamo 2ms, 16,6+2 = 18,6 = 54fps circa.

Ovviamente la "forbice" potrebbe essere meno o molto più elevata in base allo scenario.

Chiaro siamo su una base teorica.

argez
01-10-2025, 09:08
tradotto x gli ignorantoni? :stordita:

Sembra, finalmente :stordita:, che amd si stia muovendo in modo importante nello sviluppo software a corredo del suo hardware.

Lan_Di
01-10-2025, 14:47
Sembra, finalmente :stordita:, che amd si stia muovendo in modo importante nello sviluppo software a corredo del suo hardware.

esatto, forse sta volta ha tenuto il profilo basso rispetto alle novità che possono rilasciare sotto il cofano

Evilquantico
01-10-2025, 15:45
Sembra, finalmente :stordita:, che amd si stia muovendo in modo importante nello sviluppo software a corredo del suo hardware.

esatto, forse sta volta ha tenuto il profilo basso rispetto alle novità che possono rilasciare sotto il cofano

Mi sa che UDNA riporterà tanti verdolini in rosso ( un pò come nel suo piccolo la 9070xt ha fatto ) e ci sarà da divertirsi :cool:

Ale55andr0
01-10-2025, 15:53
Mi sa che UDNA riporterà tanti verdolini in rosso ( un pò come nel suo piccolo la 9070xt ha fatto ) e ci sarà da divertirsi :cool:

Credici.




....La 9070XT ha portato cosa che AMD sta all'8%? :D

Evilquantico
01-10-2025, 15:55
Credici.

....La 9070XT ha portato cosa che AMD sta all'8%? :D

Ci credo ci credo :cool: tu non ti preoccupare , ti vedo felice della tua 7900xt con ben 20 gigi

P.S. abbiamo gia parlato dietro di quelle percentuali , non sono reali del mercato e dello share

Mars95
01-10-2025, 16:40
Credici.




....La 9070XT ha portato cosa che AMD sta all'8%? :D

Argomento ciclico per cui veniamo ciclicamente cazziati per OT in svariati thread :asd:

Please don't feed the ot :read:

Windtears
01-10-2025, 17:48
tornando it, sta arrivando anche afmf3:
https://videocardz.com/newz/amd-fluid-motion-frames-3-afmf3-has-been-spotted-in-drivers-files

ionet
01-10-2025, 20:31
c'e' anche un brevetto AMD per raddoppiare la BW

https://wccftech.com/amd-newest-patent-brings-a-gigantic-boost-to-memory-performance/

si parla di Dimm, interessante in ottica Apu/AI

argez
01-10-2025, 20:39
tornando it, sta arrivando anche afmf3:
https://videocardz.com/newz/amd-fluid-motion-frames-3-afmf3-has-been-spotted-in-drivers-files

Su helldivers 2 è molto valido afmf2, spero migliorino quelle pochissime sbavature che si notano (sperando che vada anche su rdna3).

ninja750
02-10-2025, 11:30
nvidia entra in intel con grossi capitali e si parla subito di stampaggio serie 6000 con il 14A intel

piuttosto di lasciarle ferme intel vorrebbe usare in qualche modo le sue nuove fonderie, e notizia di oggi parrebbe voler fornire il 14A pure ad AMD

che tutte e due (o tre a questo punto :asd: ) virino a una sola fab USA per di più con un mezzo salto nel vuoto conoscendo i proclami dei PP intel, mollando TSMC che si è sempre dimostrata molto affidabile e performante, la vedo dura e non vedo quali siano eventuali benefici

anche facendo il salto nel buio ci sarebbero ipotizzo costi maggiori, rese peggiori, performance peggiori

se proprio si andrà verso questa strada credo che nvidia e amd inizieranno a testare qualcosa con side (parecchio side..) product

aggiungo che se intel fosse davvero così sicura della superiorità di quel PP dovrebbe fare uscire ieri una gpu stampata con quel nodo

mikael84
02-10-2025, 12:06
nvidia entra in intel con grossi capitali e si parla subito di stampaggio serie 6000 con il 14A intel

piuttosto di lasciarle ferme intel vorrebbe usare in qualche modo le sue nuove fonderie, e notizia di oggi parrebbe voler fornire il 14A pure ad AMD

che tutte e due (o tre a questo punto :asd: ) virino a una sola fab USA per di più con un mezzo salto nel vuoto conoscendo i proclami dei PP intel, mollando TSMC che si è sempre dimostrata molto affidabile e performante, la vedo dura e non vedo quali siano eventuali benefici

anche facendo il salto nel buio ci sarebbero ipotizzo costi maggiori, rese peggiori, performance peggiori

se proprio si andrà verso questa strada credo che nvidia e amd inizieranno a testare qualcosa con side (parecchio side..) product

aggiungo che se intel fosse davvero così sicura della superiorità di quel PP dovrebbe fare uscire ieri una gpu stampata con quel nodo

Intel va da TSMC e gli altri da Intel praticamente...
Il 18A attuale, era a 0,4 di DD, vorrebbe dire ipoteticamente, una 5090 a 2000$ die, ed è per limiti fisici un 3-5nm TSMC, con possiiblità di clockare di più grazie a powervia e ribbonfet. Il 14A dovrebbe affacciarsi in zona 2nm TSMC, ma per il 2027 il 14A veniva stimato lo scorso anno con una media paragonabile a quella di intel 4, usata solo per meteor lake e per appena 20k wafer.

ninja750
02-10-2025, 14:29
c'è da aggiungere che la news AMD->Intel non parla di cosa e come

magari (sarebbe il colmo) parlano di cpu e non gpu

ma io non darei mai i miei disegni ad un diretto competitor

ferro75
02-10-2025, 15:41
Intel va da TSMC e gli altri da Intel praticamente....

:asd:

floop
02-10-2025, 16:34
tornando it, sta arrivando anche afmf3:
https://videocardz.com/newz/amd-fluid-motion-frames-3-afmf3-has-been-spotted-in-drivers-files

con Redstone quindi tra sei mesi altro che "sta arrivando"

Lan_Di
02-10-2025, 17:49
con Redstone quindi tra sei mesi altro che "sta arrivando"Redstone è previsto per dicembre

Inviato dal mio moto g75 5G utilizzando Tapatalk

Lan_Di
03-10-2025, 04:07
analisi qualità di immagine e impatto performance di FSR4 int 8 e confronto diretto con FSR FP8 e algoritmo intel Xess DP4

https://www.youtube.com/watch?v=yB0qmTCzrmI

ninja750
03-10-2025, 10:01
bene che hanno confrontato normalizzando le performance

fsr4 performance rdna4 = fsr balanced rdna2/3

e tutti e due spesso sono meglio di FSR3.1 a pari fps

Mars95
03-10-2025, 10:22
bene che hanno confrontato normalizzando le performance

fsr4 performance rdna4 = fsr balanced rdna2/3

e tutti e due spesso sono meglio di FSR3.1 a pari fps

Non ho capito bene il tuo paragone.

Io direi che da FSR 3.1 quality:
Con RDNA4 FSR4 FP16 quality hai circa le stesse performance, poco meno.
Con RDNA3 FSR4 INT8 balanced hai circa le stesse performance, poco più.
Con RDNA2 FSR4 INT8 performance hai circa le stesse performance, poco meno.

Quindi in breve direi che RDNA3 perde un livello di qualità e RDNA2 due.
Ma in realtà FSR4 performance è comunque meglio di FSR3 quality, quindi FSR4 è il benvenuto ovunque.

ninja750
03-10-2025, 16:22
si ho sbagliato a scrivere intendevo come l'hai scritta tu

ma avevo capito che l'impatto su RDNA2/RDNA3 fosse il medesimo

ha più impatto di perf? cioè nativa RDNA3 vs fsr4 RDNA3 impatta meno percentualmente che nativa RDNA2 vs fsr4 RDNA2?

che poi poco male perchè FSR3 in performance penso non lo usi nessuno

Mars95
03-10-2025, 17:25
si ho sbagliato a scrivere intendevo come l'hai scritta tu

ma avevo capito che l'impatto su RDNA2/RDNA3 fosse il medesimo

ha più impatto di perf? cioè nativa RDNA3 vs fsr4 RDNA3 impatta meno percentualmente che nativa RDNA2 vs fsr4 RDNA2?

che poi poco male perchè FSR3 in performance penso non lo usi nessuno

Due immagini valgono più di mille parole in questo caso :D

https://i.postimg.cc/G8RNSLmg/image.png (https://postimg.cc/G8RNSLmg)
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)


EDIT

Uh no, no, hai ragione tu.
Ho cannato la prima immagine che riguarda la 9070

Quelle corrette sono queste e sembrano avere lo stesso impatto come performance:
https://i.postimg.cc/QFsTtvC5/image.png (https://postimg.cc/QFsTtvC5)
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)

Saved_ita
03-10-2025, 18:43
Due immagini valgono più di mille parole in questo caso :D

https://i.postimg.cc/G8RNSLmg/image.png (https://postimg.cc/G8RNSLmg)
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)


EDIT

Uh no, no, hai ragione tu.
Ho cannato la prima immagine che riguarda la 9070

Quelle corrette sono queste e sembrano avere lo stesso impatto come performance:
https://i.postimg.cc/QFsTtvC5/image.png (https://postimg.cc/QFsTtvC5)
https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)

Beh in realtà a parte la nativa, in tutti gli altri casi (da quality in giù) con RDNA2 hai incrementi più bassi rispetto ad RDNA3.

con RDNA3 hai incrementi intorno al 11-12% con RDNA2 invece 9% e 7% ma potrebbe essere anche legato alla scheda perchè una 7900XTX non è paragonabile a un 6750XT... avessero voluto verificare veramente questa cosa potevano paragonare la 6800XT alla 7800XT che erano praticamente la stessa scheda.

In ogni caso molto meglio di quello che mi aspettassi perchè mi sarei aspettato un guadagno pressochè nullo o una qualità molto scarsa... "strano" che non lo vogliano rilasciare.

StylezZz`
03-10-2025, 19:50
... "strano" che non lo vogliano rilasciare.

Giustamente devono sfruttare l'effetto ''wow'' di FSR4 a loro favore, dagli il tempo di smaltire abbastanza 9000 e lo renderanno disponibile (se non lo fa prima optiscaler) anche per le vecchie...io nel frattempo ho venduto la 9070xt e ripreso la mia bella 6800 reference :stordita:

Windtears
04-10-2025, 09:10
sembra che si possano capire le nuove funzionalità di afmf3 per chi ha installato i driver che supportano rocm su pytorch nativamente in windows:

https://www.youtube.com/watch?v=VIU3xmxzuRk

la cosa più rilevante pare che la nuova versione possa "leggere" informazioni sui frame dal gioco tramite l'upscaler e quindi non sia più solo frame inventati dal driver.

Verro
04-10-2025, 19:11
sembra che si possano capire le nuove funzionalità di afmf3 per chi ha installato i driver che supportano rocm su pytorch nativamente in windows:

https://www.youtube.com/watch?v=VIU3xmxzuRk

la cosa più rilevante pare che la nuova versione possa "leggere" informazioni sui frame dal gioco tramite l'upscaler e quindi non sia più solo frame inventati dal driver.

Cosa farebbe di diverso? Ho visto il video ma non capisco bene l'inglese, non tanto da seguire questi discorsi. Migliorano le prestazioni?

Windtears
04-10-2025, 20:30
Cosa farebbe di diverso? Ho visto il video ma non capisco bene l'inglese, non tanto da seguire questi discorsi. Migliorano le prestazioni?

migliora la qualità dei frame generati da afmf perché non sarebbero 100% generati dal driver fuori dal gioco, ma potrebbe contare sulle informazioni dei motion vector interni al gioco tramite l'upscaler.
Dovrebbe diventare superiore (di quanto non saprei) a lossless scaler anche nella stabilità dell'immagine e non solo per la latenza.

ninja750
06-10-2025, 10:57
io nel frattempo ho venduto la 9070xt e ripreso la mia bella 6800 reference :stordita:

perchè? :stordita:

StylezZz`
06-10-2025, 11:47
perchè? :stordita:

Perché ha assolto il suo compito, ho testato FSR4 e finito quei 2-3 giochi RT intensive che mi interessavano, non aveva senso tenerla ''ferma'' e farla svalutare. Per tutto il resto la 6800 mi va benissimo e con FSR4 in arrivo su RDNA2 e 3 non sentirò la mancanza.

ninja750
06-10-2025, 15:47
con FSR4 in arrivo su RDNA2 e 3 non sentirò la mancanza.

aspetta (aspettiamo) e spera..

Alekx
06-10-2025, 16:33
Perché ha assolto il suo compito, ho testato FSR4 e finito quei 2-3 giochi RT intensive che mi interessavano, non aveva senso tenerla ''ferma'' e farla svalutare. Per tutto il resto la 6800 mi va benissimo e con FSR4 in arrivo su RDNA2 e 3 non sentirò la mancanza.

Penso che su RDNA2 l'FSR4 non arrivera' mai per ovvie ragioni gia' spiegate da AMD.

Sara' possibile dalla serie 7000 in su.

StylezZz`
06-10-2025, 16:47
aspetta (aspettiamo) e spera..

Penso che su RDNA2 l'FSR4 non arrivera' mai per ovvie ragioni gia' spiegate da AMD.

Sara' possibile dalla serie 7000 in su.

È già possibile attivarlo installando una vecchia versione di adrenalin :stordita:

Se AMD non lo farà funzionare ufficialmente, state tranquilli che sarà possibile via optiscaler o altri metodi.

Cutter90
06-10-2025, 16:49
È già possibile attivarlo installando una vecchia versione di adrenalin :stordita:

Se AMD non lo farà funzionare ufficialmente, state tranquilli che sarà possibile via optiscaler o altri metodi.

Già solo per lo sbatto enorme di farlo io sarei rimasto con la 9070 XT :D

ferro75
06-10-2025, 17:08
È già possibile attivarlo installando una vecchia versione di adrenalin :stordita:

Se AMD non lo farà funzionare ufficialmente, state tranquilli che sarà possibile via optiscaler o altri metodi.

In realtà basta copiare 2 file dei vecchi driver nella cartella dei nuovi e poi installare questi ultimi. E per i giochi che supportano FSR3.1 basta sostituire una dll nella cartella del gioco. Per gli altri c'è optiscaler

StylezZz`
06-10-2025, 17:20
Già solo per lo sbatto enorme di farlo io sarei rimasto con la 9070 XT :D

No troppo semplice, mi piace smanettare :O

In realtà basta copiare 2 file dei vecchi driver nella cartella dei nuovi e poi installare questi ultimi. E per i giochi che supportano FSR3.1 basta sostituire una dll nella cartella del gioco. Per gli altri c'è optiscaler

Esatto! Ho sbagliato a scrivere ''installare vecchia versione'', in realtà servono solo i 2 file dei vecchi.

EddieTheHead
06-10-2025, 17:37
sì ma occhio che quelle due DDL che sostituite SONO effettivamente i driver :D

quindi vi dirà pure "driver xxpincopalloxx" ma in realtà state usando quelli vecchi

StylezZz`
07-10-2025, 10:39
sì ma occhio che quelle due DDL che sostituite SONO effettivamente i driver :D

quindi vi dirà pure "driver xxpincopalloxx" ma in realtà state usando quelli vecchi

Sono due DLL che occupano circa 65MB l'una e fanno parte del driver, ma non sono ''il driver'', quindi alla fine si avranno comunque le funzionalità dell'ultima versione adrenalin...altrimenti che senso avrebbe fare la sostituzione?

https://www.dllme.com/dll/files/amdxc64

Lan_Di
07-10-2025, 10:50
Sono due DLL che occupano circa 65MB l'una e fanno parte del driver, ma non sono ''il driver'', quindi alla fine si avranno comunque le funzionalità dell'ultima versione adrenalin...altrimenti che senso avrebbe fare la sostituzione?

https://www.dllme.com/dll/files/amdxc64

Probabilmente nessuno, perchè in teoria dopo aver apportato la sostituzione dovrebbe essere come aver installare i driver vecchi senza le ultime ottimizzazioni ma che funzionano in maniera adeguata con FSR 4 e danno maggiore consistenza con i giochi più datati.
A questo punto, se la cosa fosse confermata ( non è ancora chiaro), vale la pena utilizzare quelli ufficiali AMD.

Per aver la certezza sarebbe da fare un test con un gioco recente che ha ricevuto un'ottimizzazione da AMD in driver più recenti e confrontare i risultati con e senza sostituzione delle DLL, lasciando fuori dall'equazione FSR ovviamente.

Lo youtuber portoghese dovrebbe aver segnalato questa cosa ad AMD, vediamo se verrà fixata ufficialmente nelle prossime release o in prossima del rilascio di Redstone

StylezZz`
07-10-2025, 11:10
Si bisognerebbe fare un confronto delle prestazioni, anche se Fabio (lo utuber portoghese) nella sua guida dice chiaramente che la copia delle dll serve per sfruttare le ottimizzazioni degli ultimi adrenalin con i nuovi giochi, altrimenti non avrebbe senso.

Lan_Di
07-10-2025, 11:53
Si bisognerebbe fare un confronto delle prestazioni, anche se Fabio (lo utuber portoghese) nella sua guida dice chiaramente che la copia delle dll serve per sfruttare le ottimizzazioni degli ultimi adrenalin con i nuovi giochi, altrimenti non avrebbe senso.

Sicuramente lui ne sa qualcosa in più ;)

ninja750
09-10-2025, 10:55
https://www.hwupgrade.it/news/skvideo/amd-brucia-nvidia-le-nuove-instinct-mi450-saranno-le-prime-gpu-ai-a-2-nanometri_144612.html

nuove instinct sui 2nm di TSMC

quindi per me anche UDNA/RDNA5 saranno conseguentemente su questo PP specialmente se i rumour di unificazione architetturale sono veri

"TSMC stima che il passaggio da 3 a 2 nm possa offrire fino al 15% di prestazioni in più a parità di consumo, oppure una riduzione dei consumi del 30% a parità di potenza"

quindi una 9070 potrebbe consumare da 220w a 154w
quindi una 9070XT potrebbe consumare da 304w a 213w

il tutto senza muovere una virgola architetturale o frequenze

oppure una 9070 potrebbe andare come una 9070XT/5070ti in 220w
oppure una 9070XT potrebbe andare come una 5080 in 304w

sempre senza muovere una virgola architetturale o frequenze

ergo mi verrebbe da concludere che AMD non riuscirà ancora a prendere la 4090 (di tre anni fa..) se non aumenterà "core count" o "ipc", perchè l'aumento delle frequenze sarebbe tutto da verificare (e aumenterebbe il consumo) e ci vorrebbe almeno in +20% che su 3 ghz vorrebbe dire arrivare a 3,6 che sono tanti

mikael84
09-10-2025, 12:24
https://www.hwupgrade.it/news/skvideo/amd-brucia-nvidia-le-nuove-instinct-mi450-saranno-le-prime-gpu-ai-a-2-nanometri_144612.html

nuove instinct sui 2nm di TSMC

quindi per me anche UDNA/RDNA5 saranno conseguentemente su questo PP specialmente se i rumour di unificazione architetturale sono veri

"TSMC stima che il passaggio da 3 a 2 nm possa offrire fino al 15% di prestazioni in più a parità di consumo, oppure una riduzione dei consumi del 30% a parità di potenza"

quindi una 9070 potrebbe consumare da 220w a 154w
quindi una 9070XT potrebbe consumare da 304w a 213w




No, quello è il dato teorico di un 2nm ribbonfet vs un 3nB.

Questo per dire, è il teorico a basse tensioni (la iso) di un 2nmP vs un 3nE, che mediamente è l'11% più efficiente di un 4np ed il 7% più performance 0,75v.
https://i.postimg.cc/L5qPCK50/e4u-Uh-FVTSisqc-MUdhptu-Bk-1200-80.png

Le differenze sarebbero molto marcate.

Tuttavia, ciò che davvero impatta è la densità, ovvero potresti stampare una 9070xt su un 250mm2 (74/75000mt su un 350, l'equivalente di AD102 full).

Il paradosso, è che si rischia il salto del 3nm, su tutti i fronti, quando tale PP, poteva realmente migliorare le serie attuali.

Nvidia al momento è veramente sui 3nP per le HPC.

ninja750
09-10-2025, 12:49
Le differenze sarebbero molto marcate.

riparametrizza quei due esempi che ho fatto in base a quelle tue informazioni così capiamo meglio :O

mikael84
09-10-2025, 13:18
riparametrizza quei due esempi che ho fatto in base a quelle tue informazioni così capiamo meglio :O

Prendi una 9070xt con 200watt di core. Passala ai 3nE ed i consumi scenderebbero a 178watt (sempre teorici), dopo lo shrinkiamo sui 2nmP, e quel chip scende da 178 a 114watt.

Però attenzione, il picco della riduzione è a 0,75v non a 1,05v, quindi la questione cambia sensibilmente, perchè, il massimo potresti raggiungerlo a valori intorno ai 100-125watt, quindi la riduzione sarebbe minore.

Ora, hai varie strade:
- ridimensionare il die, ed i consumi totali, considerando che su un core così, anche il pcb, e le relative perdite sarebbero molto minori, diventerebbe quasi una x60.

- stessi consumi, ma pompare il clock. Se a 2,2/0,75 hai 2,2, con i 2nmP sali a 2,7, quindi ipotizzando uno scenario reale, potresti avere un boost minimo di 3650, come i 2950 ora.

- sfruttare la densità e salire sino ai transistor di AD102 full (4090ti) e quindi da 250mm2, sali a 350, ovvero 75000mtransistor. Questo significa, aumentare l'IPC (navi48) o aumentare gli shader.

Per fare un altro esempio, nei 75mt, potresti portare i 6144shader e 384bit, a clock ben più alti degli attuali, tornando però sui consumi di navi48.


Questo è ciò che potrebbe fare un 2nP, mentre un 3nm, guadagnerebbe densità, ma il rapporto performance non sarebbe così eclatante.

ninja750
09-10-2025, 14:13
sembra tutto troppo bello

ma la teoria di declassare il core count della 9070xt relegandola a 10060xt e presentando una 10700xt con 1.5x sarebbe invero molto bello se riescono a tenere i consumi sotto i 250w o cmq sotto i 300w che sono già troppo alti per me per una "fascia 7"

mikael84
09-10-2025, 14:49
sembra tutto troppo bello

ma la teoria di declassare il core count della 9070xt relegandola a 10060xt e presentando una 10700xt con 1.5x sarebbe invero molto bello se riescono a tenere i consumi sotto i 250w o cmq sotto i 300w che sono già troppo alti per me per una "fascia 7"

Sono dati teorici su un nodo molto più avanzato con i ribbonfet (4np vs 2np).
La 9070xt è siglata 70, ma non è proprio una 70 fisicamente, considerando che ha il 20% in più dei transistor rispetto alla 5080, ma lente G6.
Se l'avversaria fosse la 4080, l'avrebbero chiamata 9080xt.

Volendo, una 6144st si poteva già realizzare con un 500mm2, ma i consumi con il 4nmp, sarebbero saliti ad almeno 450. Tale chip avrebbe preso e spesso battuto la 4090 in raster. La 9900xt che manca ora.

Con un 2nm, ci vuole davvero poco per prenderla, ma già con un 3np lo fai.

ionet
09-10-2025, 15:21
probabile pero' che i 2nm saranno esclusivi per i prodotti da Datacenter.. per il consumer max i 3nm e ci dice pure bene

pare che dalla prossima AMD avra' finalmente prodotti all'altezza della concorrenza, ergo se tutto viene prodotto a 2nm, ma le richieste per i datacenter saranno molto elevate, dove pensate che poi tagliano per farne fronte?:stordita: :(

per i consumi, un po di undervolt e via
poi sono da preferire piu' le evoluzioni architetturali, se gli metti in mano un processo produttivo che promette clock molto piu' alti, il rischio e' che si punta troppo sulle freq e poco sulla architettura..

in ogni caso AMD ha ancora la carta G7 da giocare

Ubro92
09-10-2025, 15:24
Vabbè la 9070xt ha pur sempre un die da 357mm2, ora poi, la si trova a poco più di 600€...

E non vorrei dire... ma anche la bistrattata 9070 liscia fa buoni numeri XD

https://tpucdn.com/review/asus-radeon-rx-9070-tuf-oc/images/overclocked-performance.png

https://tpucdn.com/review/sapphire-radeon-rx-9070-xt-nitro/images/overclocked-performance.png

Onestamente a sto giro ci sono ben poche critiche da fare...

Poi posso capire che a molti non piaccia non avere padelle da 600-750mmq, ma parliamo di un target che ha raggiunto prezzi osceni di oltre 2000€...

mikael84
09-10-2025, 15:53
probabile pero' che i 2nm saranno esclusivi per i prodotti da Datacenter.. per il consumer max i 3nm e ci dice pure bene

pare che dalla prossima AMD avra' finalmente prodotti all'altezza della concorrenza, ergo se tutto viene prodotto a 2nm, ma le richieste per i datacenter saranno molto elevate, dove pensate che poi tagliano per farne fronte?:stordita: :(

per i consumi, un po di undervolt e via
poi sono da preferire piu' le evoluzioni architetturali, se gli metti in mano un processo produttivo che promette clock molto piu' alti, il rischio e' che si punta troppo sulle freq e poco sulla architettura..

in ogni caso AMD ha ancora la carta G7 da giocare

In linea di massima si, perchè se ipotizzando 75mtransistor, riesci a fare un lavoro simile a quanto visto tra RDNA3 e 4 è meglio, perchè devi pensare alle performance brute, a quelle rt e quelle dei tensor, come l'introduzione delle FP4.
Se quei transistor li usi solo per aumentare gli shader, rimani indietro.

Cmq si parlava di unificazione tra CDNA e RDNA, e CDNA è ancora GCN.

Vabbè la 9070xt ha pur sempre un die da 357mm2, ora poi, la si trova a poco più di 600€...

E non vorrei dire... ma anche la bistrattata 9070 liscia fa buoni numeri XD


Onestamente a sto giro ci sono ben poche critiche da fare...

Poi posso capire che a molti non piaccia non avere padelle da 600-750mmq, ma parliamo di un target che ha raggiunto prezzi osceni di oltre 2000€...

Vabbè quel test è hws e shader intensive, gira meglio su AMD.

Ubro92
09-10-2025, 16:15
Era giusto per avere un riferimento, soprattutto tra 9070 e 9070xt.

Ma con le ultime release driver, sia 9070 che 9070xt si staccano dal target di GB205, sono sku dove si nota il chip decisamente più bruto, pur mantenendo prezzi simili.

ionet
09-10-2025, 16:30
AMD insieme a Sony accennano alle nuove tecniche per le prossime GPU

https://wccftech.com/amd-unveils-radiance-cores-neural-arrays-universal-compression-next-gen-rdna-gpu-architecture/

mikael84
09-10-2025, 16:42
Era giusto per avere un riferimento, soprattutto tra 9070 e 9070xt.

Ma con le ultime release driver, sia 9070 che 9070xt si staccano dal target di GB205, sono sku dove si nota il chip decisamente più bruto, pur mantenendo prezzi simili.

Considera che GB205 ha mediamente i transistor di navi44, e che non è full, e non boosta in AVG a 3200 circa.
La 5070 per transistor praticamente dovrebbe scontrarsi con la 9060xt, ed ovviamente ci sta che in vari giochi la 9070 possa superarla abbondantemente, soprattutto in test dove mostra la potenza shader.

Ubro92
09-10-2025, 17:22
Considera che GB205 ha mediamente i transistor di navi44, e che non è full, e non boosta in AVG a 3200 circa.
La 5070 per transistor praticamente dovrebbe scontrarsi con la 9060xt, ed ovviamente ci sta che in vari giochi la 9070 possa superarla abbondantemente, soprattutto in test dove mostra la potenza shader.

Vabbè non penso che quel 4% di ALU disattive facciano il miracolo XD
GB205 è anche meno complesso del precedente AD104.

Come complessità, fondamentalmente 9070 e 9070ti, se la giocano con 4070ti Super e 4080, volendo forzare un paragone.

Ale55andr0
09-10-2025, 17:37
mi manca la fine anni 90/inizio 2000, quando fra Marzo e Ottobre dello stesso anno passavi da lancio di una top all'altra (TNT2 ultra-->geforce 256) con salti prestazionali enormi mentre ora bisogna attendere 2 anni per un salto misero a prezzi idioti

argez
09-10-2025, 17:58
mi manca la fine anni 90/inizio 2000, quando fra Marzo e Ottobre dello stesso anno passavi da lancio di una top all'altra (TNT2 ultra-->geforce 256) con salti prestazionali enormi mentre ora bisogna attendere 2 anni per un salto misero a prezzi idioti

Se non fosse per i prezzi idioti il lasso temporale andrebbe bene, almeno ti godi quello che hai comprato per un paio d'anni (minimo) :).

Jack Carver
10-10-2025, 07:59
mi manca la fine anni 90/inizio 2000, quando fra Marzo e Ottobre dello stesso anno passavi da lancio di una top all'altra (TNT2 ultra-->geforce 256) con salti prestazionali enormi mentre ora bisogna attendere 2 anni per un salto misero a prezzi idioti


si ma a livello di giochi duravano poco mentre oggi come oggi ancora giochi più che decentemente con una video di 2 generazioni fa

ninja750
10-10-2025, 11:08
mi manca la fine anni 90/inizio 2000, quando fra Marzo e Ottobre dello stesso anno passavi da lancio di una top all'altra (TNT2 ultra-->geforce 256) con salti prestazionali enormi mentre ora bisogna attendere 2 anni per un salto misero a prezzi idioti

si bello, compri oggi a 500 e dopo 6 mesi vale 250 :ciapet:

ionet
12-10-2025, 11:23
a proposito della collaborazione per Project Amethyst tra Amd e Sony(PS6)
Digital Foundry a chiesto lumi e Mark Cerny ha dichiarato un cambiamento molto importante/epocale

...Firstly, when asked about the change in Sony's hardware and software strategy from the PlayStation 5 Pro to the next PlayStation console, Mark Cerny said Project Amethyst would bring about a monumental shift:

We've shifted our focus substantially. In the past, we were largely creating custom technologies just for PlayStation platforms. But now with Project Amethyst, we're placing substantially more of a focus on co-engineering and co-development with AMD on their roadmap hardware and libraries. That change will have a very large impact, because when developers can create their technology with the understanding that it will work across multiple platforms such as desktops, laptops, consoles, etc., there will be much larger pickup of new features. So I believe we'll see outsized impact from the technologies announced this past week!...

praticamente le prossime console, anche Xbox, Handheld e PC, saranno basate su HW e SW quasi totalmente congiunto
ottimo per invogliare il supporto, visto l'enorme utenza PC/console, e velocizzare l'interoperabilità :)

ninja750
14-10-2025, 12:28
ha più impatto di perf? cioè nativa RDNA3 vs fsr4 RDNA3 impatta meno percentualmente che nativa RDNA2 vs fsr4 RDNA2?

abbiamo una risposta con numeri per RDNA2:

https://www.computerbase.de/artikel/grafikkarten/fsr-4-rdna-2-rdna-3.94512/seite-2

https://i.postimg.cc/fTpY80LR/impatto-fsr4.png

usate i grafici interattivi

in pratica se assumiamo che qualitativamente FSR4 performance = FSR3 quality

abbiamo FSR4 performance +44% mentre FSR3 quality +37% quindi ha davvero senso usare FSR4

quindi vediamo anche che FSR4 in qualità ha un impatto praticamente uguale su tutte RDNA2/3/4 che è 24% mediamente

quello che cambia molto è FSR4 performance che su RDNA2/3 impatta +43/44 mentre su RDNA4 fa un bel +65%

StylezZz`
14-10-2025, 14:36
Non hanno testato FSR4 Balanced? Credo sia quello più indicato su RDNA2...

igiolo
14-10-2025, 15:01
con Cyberpunk 2077 , 9070 XT e un 7800X3D
in 4K

con frame gen FSR 4

che impostazioni tenere?
un preset rapido per avere 60fps medi?
l'RT , anche a medio, è sostenibile?

Mars95
14-10-2025, 16:33
in pratica se assumiamo che qualitativamente FSR4 performance = FSR3 quality

https://www.youtube.com/watch?v=yB0qmTCzrmI&t=830s

Qui si vede bene la differenza tra FSR3 e 4 a differenti settaggi.
Imho FSR4 performance > FSR 3 quality.
Soprattutto quando entrano in gioco robe che si muovono, trasparenze, ecc.

ninja750
15-10-2025, 09:58
sì quindi è davvero un peccato non lo portassero ufficialmente su RDNA2/3

anche perchè a quel punto o blocchi i tweak che oggi sono possibili nei driver o non ha senso che la gente debba smanettare in sto modo

Mars95
15-10-2025, 10:26
sì quindi è davvero un peccato non lo portassero ufficialmente su RDNA2/3

anche perchè a quel punto o blocchi i tweak che oggi sono possibili nei driver o non ha senso che la gente debba smanettare in sto modo

Hanno già detto che Redstone andrà su RDNA2 e 3, quindi basta aspettare.

EddieTheHead
15-10-2025, 15:39
ma l'hanno detto ufficialmente? :stordita:

Ale55andr0
15-10-2025, 16:21
con Cyberpunk 2077 , 9070 XT e un 7800X3D
in 4K

con frame gen FSR 4

che impostazioni tenere?
un preset rapido per avere 60fps medi?
l'RT , anche a medio, è sostenibile?

Carica il preset RT ultra, lascia tutto come ti setta e poi imposta il solo RT a medio a limite, ad alto, a seconda del tuo senso di fluidità.

Ale55andr0
15-10-2025, 16:23
Hanno già detto che Redstone andrà su RDNA2 e 3, quindi basta aspettare.

redstone che?

ninja750
15-10-2025, 17:05
Carica il preset RT ultra, lascia tutto come ti setta e poi imposta il solo RT a medio a limite, ad alto, a seconda del tuo senso di fluidità.

hai provato la tua famosa porsche di silverhand con fsr4 e la tua rdna3?

A64FX+DFI nF4
15-10-2025, 20:14
redstone che?

https://videocardz.com/newz/amd-announces-fsr-redstone-for-rdna4-neural-radiance-caching-ml-ray-regeneration-and-frame-generation

https://videocardz.com/newz/amd-fsr-3-1-4-paving-the-way-for-fsr-redstone

https://videocardz.com/newz/fsr-redstone-on-track-amd-promises-dedicated-presentation

https://videocardz.com/newz/amd-fsr-redstone-may-run-on-non-amd-gpus

floop
16-10-2025, 10:44
redstone che?

il dlss4 di AMD...

Mars95
16-10-2025, 10:58
ma l'hanno detto ufficialmente? :stordita:

Detto in un'intervista, tale Chris Hall, Senior Director Software Development di AMD.
Quindi non è proprio una comunicazione ufficiale per non è manco un leak di un tizio cinese che ha un cugino che conosce qualcuno.

redstone che?

Che ce l'hai i Google te? :asd:

Mars95
16-10-2025, 11:00
https://videocardz.com/newz/amd-announces-fsr-redstone-for-rdna4-neural-radiance-caching-ml-ray-regeneration-and-frame-generation

https://videocardz.com/newz/amd-fsr-3-1-4-paving-the-way-for-fsr-redstone

https://videocardz.com/newz/fsr-redstone-on-track-amd-promises-dedicated-presentation

https://videocardz.com/newz/amd-fsr-redstone-may-run-on-non-amd-gpus

C'è anche la pagina di AMD: https://www.amd.com/en/products/graphics/technologies/fidelityfx/super-resolution.html

Praticamente è FSR 4 + neural radiance caching + ray regeneration + frame gen basato su ML.

ninja750
17-10-2025, 10:55
C'è anche la pagina di AMD: https://www.amd.com/en/products/graphics/technologies/fidelityfx/super-resolution.html

Praticamente è FSR 4 + neural radiance caching + ray regeneration + frame gen basato su ML.

lì però per redstone c'è proprio scritto "on the latest on AMD RDNA™ 4 GPUs"

ninja750
17-10-2025, 13:02
ben rileggendo smebra che FSR4 sarà parte di redstone e quindi.. perchè no? :stordita:

With AMD FidelityFX SDK 2.0 and AMD FSR Redstone, future AMD Software: Adrenalin Edition™ driver releases can update the version of ML-based technologies used in-game by default. This ensures players experience the latest available technology without requiring game updates for each title.​

Games which have previously integrated AMD FSR 3.1 and later are eligible for automatic version upgrades to AMD FSR 4 upscaling technology via future AMD Software: Adrenalin Edition releases.
Games which have previously integrated AMD FSR 3.1.4 will be eligible for automatic version upgrades to our upcoming FSR ML Frame Generation technology via future AMD Software: Adrenalin Edition releases.

EddieTheHead
17-10-2025, 14:19
beh stiamo a vedere. Non avrebbe senso non renderlo ufficialmente compatibile con RDNA 2/3, già adesso che è di sgamo funziona :boh:

Ale55andr0
17-10-2025, 22:47
hai provato la tua famosa porsche di silverhand con fsr4 e la tua rdna3?

No, io gioco in nativa e cmq cp2077 l'ho finito eoni fa

Ale55andr0
17-10-2025, 22:48
il dlss4 di AMD...

ah, chiamarlo FSR 4 e bon no? :D

Mars95
17-10-2025, 23:33
ah, chiamarlo FSR 4 e bon no? :D

Nel senso che a FSR 4 al momento mancano ancora cose che DLSS 4 ha come il ray racostruction, Redstone lo includerà o quanto meno la versione AMD della cosa che hanno chiamato ray regeneration (fantasia eh?)

Stessa cosa il frame generation, AMD lo ha già e funziona discretamente, ma non è basato sul ML come quello di Nvidia, Redstone dovrebbe introdurre un frame gen ML.

Non ricordo se DLSS 4 ha già qualcosa come neural radial caching

EddieTheHead
18-10-2025, 00:21
piu diventano avanzate più queste tecnologie diventano l'una uguale all'altra in termini di qualità di immagine

cent'euro che finiranno per diventare standard comune

floop
18-10-2025, 19:16
piu diventano avanzate più queste tecnologie diventano l'una uguale all'altra in termini di qualità di immagine

cent'euro che finiranno per diventare standard comune

Tipo ei fu Physyx?

Mars95
18-10-2025, 21:08
piu diventano avanzate più queste tecnologie diventano l'una uguale all'altra in termini di qualità di immagine

cent'euro che finiranno per diventare standard comune

Più o meno la strada è sempre stata quella, Nvidia si inventa una nuova diavoleria proprietaria, altri che siano AMD o altri o in collaborazione tra loro piano piano si portano al pari e poi diventa uno standard aperto.
Anche perché nel frattempo Nvidia si inventa una nuova diavoleria su cui puntare.

Mars95
18-10-2025, 21:09
Tipo ei fu Physyx?

Physx mi sembra quello che più si è perso.

alethebest90
19-10-2025, 09:39
Physx mi sembra quello che più si è perso.

sta sparendo anche g-sync

Lan_Di
19-10-2025, 12:12
Physx mi sembra quello che più si è perso.Physx non è nemmeno più supportato dalle rtx 5000.
Infatti se abilitata su queste schede le prestazioni sono peggiori che per le rtx 4000/3000

Inviato dal mio moto g75 5G utilizzando Tapatalk

Ubro92
19-10-2025, 13:42
Physx non è nemmeno più supportato dalle rtx 5000.
Infatti se abilitata su queste schede le prestazioni sono peggiori che per le rtx 4000/3000

Inviato dal mio moto g75 5G utilizzando Tapatalk

Da quello che ricordo hanno rimosso solo la parte 32bit, quella a 64bit dovrebbe continuare a funzionare, ma ironicamente proprio nei vecchi titoli si aveva l'uso più impattante XD

Vedi Batman, Alice, mirror Edge... gli levi phyx e praticamente rimuovi la maggior parte degli effetti particellari... Potevano almeno creare un wrapper o un emulatore, o qualcosa per mitigare, invece nada...

Però, si può comunque utilizzare una seconda gpu, anche una GT710 giusto per il calcolo physx, cosa che si faceva anche al tempo con le schede amd, io ho ancora la 9600gt nel cassetto che al tempo usavo con la 5870 XD

Ale55andr0
19-10-2025, 13:43
si bello, compri oggi a 500 e dopo 6 mesi vale 250 :ciapet:

meglio oggi invece, spendi 800 ogni 2 anni per un +20 % a pari fascia :rotfl:

Lan_Di
19-10-2025, 15:51
Da quello che ricordo hanno rimosso solo la parte 32bit, quella a 64bit dovrebbe continuare a funzionare, ma ironicamente proprio nei vecchi titoli si aveva l'uso più impattante XD



Vedi Batman, Alice, mirror Edge... gli levi phyx e praticamente rimuovi la maggior parte degli effetti particellari... Potevano almeno creare un wrapper o un emulatore, o qualcosa per mitigare, invece nada...



Però, si può comunque utilizzare una seconda gpu, anche una GT710 giusto per il calcolo physx, cosa che si faceva anche al tempo con le schede amd, io ho ancora la 9600gt nel cassetto che al tempo usavo con la 5870 XDÈ ancora possibile utilizzare questa soluzione con Windows 11?

Ci sono problemi di compatibilità da valutare?

Inviato dal mio moto g75 5G utilizzando Tapatalk

Lan_Di
19-10-2025, 21:09
Da quello che ricordo hanno rimosso solo la parte 32bit, quella a 64bit dovrebbe continuare a funzionare, ma ironicamente proprio nei vecchi titoli si aveva l'uso più impattante XD

Vedi Batman, Alice, mirror Edge... gli levi phyx e praticamente rimuovi la maggior parte degli effetti particellari... Potevano almeno creare un wrapper o un emulatore, o qualcosa per mitigare, invece nada...

Però, si può comunque utilizzare una seconda gpu, anche una GT710 giusto per il calcolo physx, cosa che si faceva anche al tempo con le schede amd, io ho ancora la 9600gt nel cassetto che al tempo usavo con la 5870 XD

E’ ancora possibile fare questa soluzione con Windows 11?

Ci sono dei problemi di compatibilità?


meglio oggi invece, spendi 800 ogni 2 anni per un +20 % a pari fascia :rotfl:

Però con una scheda di fascia medio alta si tira avanti bene per un paio di generazioni, per cui si può tirare avanti almeno per oltre 3 anni senza grosse rinuncie

Inviato dal mio moto g75 5G utilizzando Tapatalk

Mars95
20-10-2025, 08:32
sta sparendo anche g-sync

Ma g-sync come standard hardware è stato soppiantato da adaptive sync la versione open per tutti.
Physx invece è sparito punto e basta.

mikael84
20-10-2025, 17:33
thread sistemato.

ninja750
22-10-2025, 09:50
riprendendo i rumour su AT0/AT2/AT3/AT4

per quello che valgono gli ultimi presunti leak darebbero LPDDR5X per AT3/AT4 e GDDR7 per AT0/AT2

LPDDR5X sarebbero fatte da samsung 10.7gbps sul 12nm e si trovano attualmente in configurazione 12gb/16gb/24gb/32gb, dipendentemente da cosa sceglierà AMD per il bus soprattutto lato costi/perf la soluzione 16gb sembra la solita più equilibrata a meno che non voglia allinearsi alla barbonaggine di jensen potendo a questo giro apparentemente proporre 12gb sul 256bit

micron invece sembra avere solo moduli da 16 a salire quindi vedremo come evolverà la cosa

GDDR7 (pam3 o no, non si sa ancora) pare sia solo 16gb e dovendo essere montata sulla top top difficilmente sarà proposta in un quantitativo uguale a quella di taglio inferiore quindi è quasi scontato si punterà a 32gb portando però i costi della scheda alle stelle, pur con prestazioni e bandwith davvero notevoli (3x?)

il sunto della questione è che tolta AT0 che sarà un presunto mostro probabilmente non gaming oriented, la AT2 32gb potrebbe essere posizionata un po' troppo in alto cioè ben oltre 1000€ ma che permetterebbe ad AMD di affiancare (e superare anche grazie al migliore pp?) la teorica futura RTX6080

mentre AT3 12gb (16?) parrebbe fin troppo staccata anche e soprattutto come prezzo

Ubro92
22-10-2025, 10:55
È ancora possibile utilizzare questa soluzione con Windows 11?

Ci sono problemi di compatibilità da valutare?

Inviato dal mio moto g75 5G utilizzando Tapatalk

Per nvidia si, per amd serve la mod Hybrid PhysX che funziona solo sui titoli a 32bit, e c'è da fare qualche test con Windows 11 perchè potrebbe effettivamente cozzare.

Qua c'è l'elenco completo di quelli a 32bit che dovrebbero fungere con la mod:
https://www.resetera.com/threads/rtx-50-series-gpus-have-dropped-support-for-32-bit-physx-many-older-pc-games-are-impacted-mirrors-edge-borderlands-etc.1111698/

Quelli successivi con physx64 serve necessariamente una gpu nvidia come primaria, e gli effetti fungono anche sulle 5000 senza necessità di una vecchia gpu.

Ma g-sync come standard hardware è stato soppiantato da adaptive sync la versione open per tutti.
Physx invece è sparito punto e basta.

Sparito no, se non ricordo male è diventato opensource, e anche i titoli più recenti che lo usano accelerano via cpu tipo i remake di Mafia, c'è solo una piccola fetta di titoli physx64, prima che diventasse open ad essere limitati sulle gpu AMD, tipo AC Black Flag o alcuni giochi batman: city/origin.

Windtears
22-10-2025, 17:45
Sparito no, se non ricordo male è diventato opensource

no gsync non è e non sarà mai opensource è nvidia che con il suo "marketing aggressivo" ha rinominato l'adaptive sync (lo STANDARD) con gsync compatible.

Ubro92
22-10-2025, 17:47
no gsync non è e non sarà mai opensource è nvidia che con il suo "marketing aggressivo" ha rinominato l'adaptive sync (lo STANDARD) con gsync compatible.

Parlavamo di physx, non vedo cosa centri il gsync...

Edit: errore mio, ho mixato i due messaggi XD

mikael84
22-10-2025, 18:06
riprendendo i rumour su AT0/AT2/AT3/AT4

per quello che valgono gli ultimi presunti leak darebbero LPDDR5X per AT3/AT4 e GDDR7 per AT0/AT2

LPDDR5X sarebbero fatte da samsung 10.7gbps sul 12nm e si trovano attualmente in configurazione 12gb/16gb/24gb/32gb, dipendentemente da cosa sceglierà AMD per il bus soprattutto lato costi/perf la soluzione 16gb sembra la solita più equilibrata a meno che non voglia allinearsi alla barbonaggine di jensen potendo a questo giro apparentemente proporre 12gb sul 256bit

micron invece sembra avere solo moduli da 16 a salire quindi vedremo come evolverà la cosa

GDDR7 (pam3 o no, non si sa ancora) pare sia solo 16gb e dovendo essere montata sulla top top difficilmente sarà proposta in un quantitativo uguale a quella di taglio inferiore quindi è quasi scontato si punterà a 32gb portando però i costi della scheda alle stelle, pur con prestazioni e bandwith davvero notevoli (3x?)

il sunto della questione è che tolta AT0 che sarà un presunto mostro probabilmente non gaming oriented, la AT2 32gb potrebbe essere posizionata un po' troppo in alto cioè ben oltre 1000€ ma che permetterebbe ad AMD di affiancare (e superare anche grazie al migliore pp?) la teorica futura RTX6080

mentre AT3 12gb (16?) parrebbe fin troppo staccata anche e soprattutto come prezzo


Micron è partner nvidia, non lo vedremo su AMD (per ora neppure li).
Dalla prossime serie, mi aspetto di vedere le full G7, con il modulino da 3GB, già usato ora con la mobile 5090, le work e sarà standard per vari modelli con le super.
Un 256bit, passerebbe a 24gb.

Windtears
22-10-2025, 18:17
Parlavamo di physx, non vedo cosa centri il gsync...

Edit: errore mio, ho mixato i due messaggi XD

no problem, figurati.

Ubro92
22-10-2025, 18:31
Micron è partner nvidia, non lo vedremo su AMD (per ora neppure li).
Dalla prossime serie, mi aspetto di vedere le full G7, con il modulino da 3GB, già usato ora con la mobile 5090, le work e sarà standard per vari modelli con le super.
Un 256bit, passerebbe a 24gb.

Sarebbe anche ora, si evitano i design a conchiglia e i chip sono meglio bilanciati come rapporto prestazioni/vram.

ninja750
24-10-2025, 08:50
presentata Radeon AI Pro R9700

https://www.hwupgrade.it/news/skvideo/amd-sfida-nvidia-con-una-gpu-ai-da-32-gb-a-soli-1299-dollari_145273.html

è sostanzialmente una 9070XT ma 300w TDP con ben 32gb com'è possibile? clock abbassati? parlano di boost 2900+mhz

Ubro92
24-10-2025, 11:18
presentata Radeon AI Pro R9700

https://www.hwupgrade.it/news/skvideo/amd-sfida-nvidia-con-una-gpu-ai-da-32-gb-a-soli-1299-dollari_145273.html

è sostanzialmente una 9070XT ma 300w TDP con ben 32gb com'è possibile? clock abbassati? parlano di boost 2900+mhz

In che senso?
Se una 9600xt ha 16GB su un 128bit, perchè una 9070xt su un 256bit non può averne 32? Sono configurate in clamshell, quindi moduli sopra e sotto.

Il clock penso faccia riferimento al core, la bandwith rimane la stessa di 640gb/s, sono sempre GDDR6:

https://www.hwupgrade.it/immagini/amd-r9700-1-18-07-2025.webp

ninja750
24-10-2025, 11:32
In che senso?

che mi aspettavo un TDP tipo 360w

Ubro92
24-10-2025, 11:38
che mi aspettavo un TDP tipo 360w

Con un blower è già tanto che non sia cappata a 250w

LkMsWb
24-10-2025, 16:12
presentata Radeon AI Pro R9700

https://www.hwupgrade.it/news/skvideo/amd-sfida-nvidia-con-una-gpu-ai-da-32-gb-a-soli-1299-dollari_145273.html

è sostanzialmente una 9070XT ma 300w TDP con ben 32gb com'è possibile? clock abbassati? parlano di boost 2900+mhz

Quasi sempre le schede professionali sono clocckate meno delle versioni gaming, anche perché i TDP sono importanti nella progettazione dei raffreddamenti in prodotti che vanno certificati (Workstation/Server).

Ubro92
31-10-2025, 18:18
Detto in un'intervista, tale Chris Hall, Senior Director Software Development di AMD.
Quindi non è proprio una comunicazione ufficiale per non è manco un leak di un tizio cinese che ha un cugino che conosce qualcuno.



Non lo so, con il recente annuncio dello status legacy delle RX 6000, comincio ad avere dubbi che RedStone supporterà anche RDNA2.

Sembra che il loro focus sarà solo sulle 7000/9000...

Windtears
31-10-2025, 19:51
Non lo so, con il recente annuncio dello status legacy delle RX 6000, comincio ad avere dubbi che RedStone supporterà anche RDNA2.

Sembra che il loro focus sarà solo sulle 7000/9000...

non sono in legacy mode, ma maintanance (termine che non vuole dire niente e mi sarei risparmiato) e si, sono stati dei dementi potevano continuare a non ottimizzare per rdna1-2 come fanno da anni e non dire niente, ma hanno fatto coming out come dei polli (su questo non riescono ad imitare nvidia, peccato) e ora hanno dovuto specificare che per giochi "popolari" ci saranno ottimizzazioni anche per rdna1-2... quindi gta 6 e saluti a tutti.

redstone su rdna2 la vedo dura, già secondo me su rdna 3 sarà parziale (solo fsr4 niente reconstruction ecc.) per effetto dei cali prestazionali, ma si vedrà.

Di certo in amd ci vuole qualcuno che abbia cervello e scriva meno kazzate e si concentri più sui driver, stanno vanificando tre anni di stabilità con ste mosse e non fanno bene al "brand" di cui dicono vogliono rilanciare l'immagine.

Non commento invece su come viene riportata la news in tanti posti, ci vorrebbe meno parzialità, più coerenza e il coraggio di contattare amd direttamente e non dare solo voci alle pance verdi piene di bile...

floop
01-11-2025, 12:36
si infatti perché così facendo fanno passare il messaggio che abbandonano il vecchio invece Nvidia ti dice che il Dlss4 va anche sulla vecchia 3070. (ti mette l'asterisco ma intanto ti dice che va il dlss4 ed è vero, AMD?)

Ubro92
01-11-2025, 13:48
si infatti perché così facendo fanno passare il messaggio che abbandonano il vecchio

Infatti sì, il messaggio per come è stato dato crea confusione, e alla fine potrebbe persino scoraggiare qualcuno dal considerare la serie 9000.

Anche perché RDNA2 non è affatto "vecchia" come architettura, è ancora recente ed è presente in parecchie SKU attuali, incluse diverse APU.

Io mi sono già legato al dito, il blocco intenzionale dei driver ufficiali sulle APU della serie Z, fino a marzo si potevano installare manualmente, poi cambio di rotta di AMD e si è vincolati agli OEM...

Nvidia ti dice che il Dlss4 va anche sulla vecchia 3070. (ti mette l'asterisco ma intanto ti dice che va il dlss4 ed è vero, AMD?)

Per Nvidia la situazione è stata diversa.

Già nel passaggio da Pascal a Turing si è beccata la sua shit storm... visto che il DLSS era esclusivo di Turing, però con il senno di poi, dopo più di 7 anni, ci ritroviamo gpu turing ancora supportate.

AMD al contrario supportando l’FSR su praticamente qualsiasi HW, incluso maxwell, ha seguito un approccio più ampio fin dall’inizio, che però oggi paga lo scotto, e unito a una comunicazione che è quella che è, crea questi disagi...

argez
01-11-2025, 14:35
Il famoso reparto marketing amd, fiore all'occhiello della comunicazione dell'azienda :asd:.

floop
01-11-2025, 15:27
Infatti sì, il messaggio per come è stato dato crea confusione, e alla fine potrebbe persino scoraggiare qualcuno dal considerare la serie 9000.

Anche perché RDNA2 non è affatto "vecchia" come architettura, è ancora recente ed è presente in parecchie SKU attuali, incluse diverse APU.

Io mi sono già legato al dito, il blocco intenzionale dei driver ufficiali sulle APU della serie Z, fino a marzo si potevano installare manualmente, poi cambio di rotta di AMD e si è vincolati agli OEM...



Per Nvidia la situazione è stata diversa.

Già nel passaggio da Pascal a Turing si è beccata la sua shit storm... visto che il DLSS era esclusivo di Turing, però con il senno di poi, dopo più di 7 anni, ci ritroviamo gpu turing ancora supportate.

AMD al contrario supportando l’FSR su praticamente qualsiasi HW, incluso maxwell, ha seguito un approccio più ampio fin dall’inizio, che però oggi paga lo scotto, e unito a una comunicazione che è quella che è, crea questi disagi...

ma l'unica vera shitshorm è stata la vram della 3070 mi sa ....

Ubro92
01-11-2025, 15:29
ma l'unica vera shitshorm è stata la vram della 3070 mi sa ....

Quella è la seconda XD
Anche se personalmente, ritengo peggio i 10GB di 3080, che gli 8 di 3070.

mikael84
01-11-2025, 16:28
Infatti sì, il messaggio per come è stato dato crea confusione, e alla fine potrebbe persino scoraggiare qualcuno dal considerare la serie 9000.

Anche perché RDNA2 non è affatto "vecchia" come architettura, è ancora recente ed è presente in parecchie SKU attuali, incluse diverse APU.

Io mi sono già legato al dito, il blocco intenzionale dei driver ufficiali sulle APU della serie Z, fino a marzo si potevano installare manualmente, poi cambio di rotta di AMD e si è vincolati agli OEM...



Per Nvidia la situazione è stata diversa.

Già nel passaggio da Pascal a Turing si è beccata la sua shit storm... visto che il DLSS era esclusivo di Turing, però con il senno di poi, dopo più di 7 anni, ci ritroviamo gpu turing ancora supportate.

AMD al contrario supportando l’FSR su praticamente qualsiasi HW, incluso maxwell, ha seguito un approccio più ampio fin dall’inizio, che però oggi paga lo scotto, e unito a una comunicazione che è quella che è, crea questi disagi...


AMD con turing ha cambiato finalmente ISA e preparato una scheda futuribile, in questi 7 anni, ha solo lavorato di microarchitettura, affinando, o migliorando alcuni aspetti, come le OFA, dove nvidia ha negato il FG alle precedenti.
Il DLSS4, lavora via FP, grazie alle FP8 e emulato con le FP16 che turing integra perfettamente. Non solo, ha una gestione degli interi, seppur in ratio inferiore, equiparabile a RDNA4, considerando che per fare interi RDNA3 deve emularle via FP.
Integra BVH in hardware, AMD per imitarlo, sta provando vari trucchetti, ma è ancora negato dall'ISA. Non solo, ha un'ISA che gli rende praticamente impossibile fare del Path tracing.

Il cambio ISA da GCN a RDNA, è stato un cambio quasi paragonabile a Kepler vs maxwell, e con le varie versioni, si sta mettendo in gioco, ma con tutti i limiti dell'ISA attuale.

Con UDNA dovrebbe esserci la svolta, dopo 4 gen. di lavori microarchitetturali.

Molte scelte, sono legate anche all'ISA, come GCN che migliorava, ma GCN era sempre quello, affinato dalle 7970 a vega.

igiolo
03-11-2025, 10:40
AMD con turing ha cambiato finalmente ISA e preparato una scheda futuribile, in questi 7 anni, ha solo lavorato di microarchitettura, affinando, o migliorando alcuni aspetti, come le OFA, dove nvidia ha negato il FG alle precedenti.
Il DLSS4, lavora via FP, grazie alle FP8 e emulato con le FP16 che turing integra perfettamente. Non solo, ha una gestione degli interi, seppur in ratio inferiore, equiparabile a RDNA4, considerando che per fare interi RDNA3 deve emularle via FP.
Integra BVH in hardware, AMD per imitarlo, sta provando vari trucchetti, ma è ancora negato dall'ISA. Non solo, ha un'ISA che gli rende praticamente impossibile fare del Path tracing.

Il cambio ISA da GCN a RDNA, è stato un cambio quasi paragonabile a Kepler vs maxwell, e con le varie versioni, si sta mettendo in gioco, ma con tutti i limiti dell'ISA attuale.

Con UDNA dovrebbe esserci la svolta, dopo 4 gen. di lavori microarchitetturali.

Molte scelte, sono legate anche all'ISA, come GCN che migliorava, ma GCN era sempre quello, affinato dalle 7970 a vega.

il BVH aiuta moltissimo per le prestazioni se non sbaglio
evita inutili calcoli

ninja750
11-11-2025, 12:52
alle 19 italiane amd financial analyst day 2025

ci si aspettano annunci e aggiornamenti sulla roadmap

nell'ultimo fatto nel 2022 annunciarono rdna3 con il +50% claim perf/watt ecc

mi aspetto minimo una conferma su udna o su rdna5 che dicano dove vogliono muoversi

e perchè no su redstone

EddieTheHead
11-11-2025, 14:55
beh redstone doveva uscire Q4 2025 se non ne parlano nemmeno non promette bene :rolleyes:

Ubro92
11-11-2025, 22:49
beh redstone doveva uscire Q4 2025 se non ne parlano nemmeno non promette bene :rolleyes:Con le grandi doti comunicative di AMD forse é anche meglio così 🤣

Quando sarà pronto e finalizzato vediamo sul campo.

Inviato dal mio M2012K11AG utilizzando Tapatalk

ninja750
12-11-2025, 09:28
purtroppo nessun annuncio e solo questa slide volutamente inutile

https://i.postimg.cc/rFRcsSJh/AMD-RDNA5-ROADMAP-1200x624.jpg

:stordita:

Ale55andr0
12-11-2025, 14:23
Se le gen durano due anni cosa vi aspettavate dicessero? Pare non arrivi nemmeno il refresh verde figuriamoci che poteva annunciare o mostrare AMD lato GPU..

OrazioOC
12-11-2025, 15:05
Se le gen durano due anni cosa vi aspettavate dicessero? Pare non arrivi nemmeno il refresh verde figuriamoci che poteva annunciare o mostrare AMD lato GPU..

Al momento lato DIY è tutto fermo, per non parlare poi della situazione surreale sulle ram. :doh:

Alekx
12-11-2025, 15:12
Attualmente secondo me si a nvidia che Amd non hanno nessuna intenzione di far uscire nuove generazioni di GPU.

Piu' che altro con l'avvendo dei frame generator, FSR, DLSS sempre migliori non si ha piu' tanta necessita' a "breve" di avere sotto al "culo" nuove GPU, che poi andrebbero a costare in media il 30% in piu' della vecchia generaizione partendo dai prezzi odierni alquanto gonfiati per poi non essere ripagati per quel 30% in piu' in termini di prestazioni o novita' grafiche.

L'esperienza che ho con l'attuale 6700Xt e con giochi come CP2077 con attivato l'FSR4 tramite programmino esterno e RT attivo con qualita' grafica a dir poco eccellente ti fanno capire che, ad esempio, personalmente sto bene cosi' fino a che non trovo una generazione di GPU che mi dia veramente qualche cosa in piu' senza ricorrere a stronzatine varie.

Cutter90
12-11-2025, 15:22
Attualmente secondo me si a nvidia che Amd non hanno nessuna intenzione di far uscire nuove generazioni di GPU.

Piu' che altro con l'avvendo dei frame generator, FSR, DLSS sempre migliori non si ha piu' tanta necessita' a "breve" di avere sotto al "culo" nuove GPU, che poi andrebbero a costare in media il 30% in piu' della vecchia generaizione partendo dai prezzi odierni alquanto gonfiati per poi non essere ripagati per quel 30% in piu' in termini di prestazioni o novita' grafiche.

L'esperienza che ho con l'attuale 6700Xt e con giochi come CP2077 con attivato l'FSR4 tramite programmino esterno e RT attivo con qualita' grafica a dir poco eccellente ti fanno capire che, ad esempio, personalmente sto bene cosi' fino a che non trovo una generazione di GPU che mi dia veramente qualche cosa in piu' senza ricorrere a stronzatine varie.

Sono di fatto "costretti" a rallentare anche per colpa delle SH, incapaci di programmare e di fare salti grafici/tecnici degni di nota da almeno 5 anni, salvo rare eccezioni.

Ubro92
12-11-2025, 15:43
Più che altro nella fascia media i salti sono risicati...

Alla fine tra un 6800 che prendevi sui 400-450€ 4 anni fa, e una 9600xt 16GB sui 350-380€ non è che ci passi chissà che divario, ne prestazionale e neanche economico.

Certo rispetto la concorrenza siamo messi meglio, ma in proporzione alle sku maggiori c'è proprio stagnazione...

mikael84
12-11-2025, 16:09
Attualmente secondo me si a nvidia che Amd non hanno nessuna intenzione di far uscire nuove generazioni di GPU.

Piu' che altro con l'avvendo dei frame generator, FSR, DLSS sempre migliori non si ha piu' tanta necessita' a "breve" di avere sotto al "culo" nuove GPU, che poi andrebbero a costare in media il 30% in piu' della vecchia generaizione partendo dai prezzi odierni alquanto gonfiati per poi non essere ripagati per quel 30% in piu' in termini di prestazioni o novita' grafiche.

L'esperienza che ho con l'attuale 6700Xt e con giochi come CP2077 con attivato l'FSR4 tramite programmino esterno e RT attivo con qualita' grafica a dir poco eccellente ti fanno capire che, ad esempio, personalmente sto bene cosi' fino a che non trovo una generazione di GPU che mi dia veramente qualche cosa in piu' senza ricorrere a stronzatine varie.

Sono di fatto "costretti" a rallentare anche per colpa delle SH, incapaci di programmare e di fare salti grafici/tecnici degni di nota da almeno 5 anni, salvo rare eccezioni.

Sono impegnatissime nel settore HPC, non so se avete visto Rubin e CDNA4 MI400/MI450. Per queste GPU usano una infinità di wafer.
Le schede gaming, probabilmente nel 2027, non prima. RDNA4 addirittura c'è 8 mesi scarsi sul mercato.

Cutter90
12-11-2025, 16:33
Più che altro nella fascia media i salti sono risicati...

Alla fine tra un 6800 che prendevi sui 400-450€ 4 anni fa, e una 9600xt 16GB sui 350-380€ non è che ci passi chissà che divario, ne prestazionale e neanche economico.

Certo rispetto la concorrenza siamo messi meglio, ma in proporzione alle sku maggiori c'è proprio stagnazione...

Siamo sempre li. Se schede di fascia media arrivano a maxare i giochi in 4k/2k e a superare i 60 fps ecco che nessun comprerebbe più la fascia alta. Quindi i salti sono minuscoli per non pestare i piedi alle altre fasce.

Ubro92
12-11-2025, 16:52
Siamo sempre li. Se schede di fascia media arrivano a maxare i giochi in 4k/2k e a superare i 60 fps ecco che nessun comprerebbe più la fascia alta. Quindi i salti sono minuscoli per non pestare i piedi alle altre fasce.

Vabbè anche i giochi diventano più esosi, ma l'utente che punta al chip di fascia alta lo prenderà sempre, vedi tutti quelli che hanno speso 2500-3000€ per la 5090.

Più che altro nella fascia media vedo proprio uno sbilanciamento dei chip, iniziando già dai tagli di vram.

La stessa 9060xt 16GB fa concorrenza a se stessa con il taglio da 8 :sofico:

EddieTheHead
12-11-2025, 21:32
beh non pensavo certo presentassero nuove schede, ma almeno una o due cacchio di paroline su Redstone me le aspettavo (anche perchè è roba che ti funziona anche come marketing in ambito AI)

sperem :rolleyes:

Evilquantico
13-11-2025, 11:30
Sono di fatto "costretti" a rallentare anche per colpa delle SH, incapaci di programmare e di fare salti grafici/tecnici degni di nota da almeno 5 anni, salvo rare eccezioni.

Quoto , avevo fatto un post a riguardo non mi ricordo piu in quale argomento , dove parlavo dell'inizio della spinta delle prime schede acceleratrici 3D per PC nella metà degli anni 90 anche grazie alla novità delle CPU/GPU di PS1 e PS2 che di conseguenza hanno spinto tutta l'industria di videogiochi a sperimentare e osare , oggi abbiamo una potenza devastante lato HW ma i giochi...

ninja750
13-11-2025, 16:02
ci siamo

https://i.postimg.cc/Pr7gx8tC/Immagine-2025-11-13-160143.png

cristiankim
13-11-2025, 18:15
ci siamo



https://i.postimg.cc/Pr7gx8tC/Immagine-2025-11-13-160143.pngChe cosa fa?

Lan_Di
13-11-2025, 18:55
Domani esce Redstone ?

https://youtu.be/p88YsQC_y8s?si=LmbSwlPPS-1pCm0S

Inviato dal mio moto g75 5G utilizzando Tapatalk

ninja750
13-11-2025, 20:20
direi proprio di si!

EddieTheHead
13-11-2025, 20:42
non vedo l'ora che venga confermato RDNA2 niente FSR4

Lan_Di
13-11-2025, 20:48
direi proprio di si!Beh considerando che 2 giorni fa c'è stato un evento e non hanno parlato nemmeno di striscio, come sempre pronti a perdere le occasioni buone.
D'altronde a chi interessa utilizzare la cassa di risonanza di Cod con un lancio imminente

Inviato dal mio moto g75 5G utilizzando Tapatalk

ninja750
14-11-2025, 08:44
usciti 25.11.1 senza redstone

anche perchè voglio dire, come avete notato non ne hanno parlato mercoledì

quindi sembra che la prima feature sia solo in quel gioco

ninja750
14-11-2025, 16:36
qui comparativa side by side ray regeneration

https://www.youtube.com/watch?v=Wx2q4xmEY64

Mars95
14-11-2025, 16:44
qui comparativa side by side ray regeneration

https://www.youtube.com/watch?v=Wx2q4xmEY64

Direi che la differenza è abbastanza evidente, non che giocando a COD la guarderà qualcuno, però c'è :asd:

Come ha fatto il video il tizio mi fa vanire mal di testa però.

Evilquantico
14-11-2025, 17:24
ci siamo

https://i.postimg.cc/Pr7gx8tC/Immagine-2025-11-13-160143.png

:cool: :cool: :cool: E' solo l'inizio

mikael84
14-11-2025, 17:36
usciti 25.11.1 senza redstone

anche perchè voglio dire, come avete notato non ne hanno parlato mercoledì

quindi sembra che la prima feature sia solo in quel gioco

Mi sarei aspettato anche qualche supporto fsr4 ufficiale in più...
Per il RR è già un inizio.

Windtears
14-11-2025, 19:37
Mi sarei aspettato anche qualche supporto fsr4 ufficiale in più...
Per il RR è già un inizio.

mettiamola così, se cominciano a presentare una feature per volta e "funziona" senza i soliti problemi sarebbe già un passo avanti.

Mars95
14-11-2025, 21:58
Mi sarei aspettato anche qualche supporto fsr4 ufficiale in più...
Per il RR è già un inizio.

Non supportano già FSR 4 in tutti i giochi con FSR 3.1?

Ubro92
14-11-2025, 22:18
Non supportano già FSR 4 in tutti i giochi con FSR 3.1?

Vabbè oramai con optiscaler è supportato anche laddove c'è solo il dlss :sofico:

Alla fine è sempre la community che spreme al meglio questi chip...

Windtears
15-11-2025, 10:55
Non supportano già FSR 4 in tutti i giochi con FSR 3.1?

si, il driver fa l'enforce.

mikael84
15-11-2025, 12:13
Non supportano già FSR 4 in tutti i giochi con FSR 3.1?

si, il driver fa l'enforce.

Errore mio, talmente tanto che non giocavo che l'avevo dimenticato. Confermo, provato ora. ;)

Lan_Di
15-11-2025, 15:30
Per la serie, quando AMD ha una buona offerta, ma ci pensa il marketing di AMD a scontentare i clienti con annunci fallaci sui driver...
I nuovi driver danno un boost si COD 7 con le RX 6900 ma non lo danno con le rx 7700...

https://youtu.be/Tq8DSKk_b20?si=4-doxozFUSObqg1K

Inviato dal mio moto g75 5G utilizzando Tapatalk

EddieTheHead
15-11-2025, 16:17
francamente aspetterei anche altri pareri

il portoghese è leggermente di parte

quando venne fuori il fattaccio faceva le piroette al contrario epr difendere AMD

Lan_Di
15-11-2025, 17:23
francamente aspetterei anche altri pareri



il portoghese è leggermente di parte



quando venne fuori il fattaccio faceva le piroette al contrario epr difendere AMDIn realtà è molto onesto, è sempre tra i primi a segnalare i bug non risolti.

Lui stesso dice che non sa se le rx 7000 top abbiano avuto ottimizzazioni, ha provato la 7700.
Come non sa se le 6700 abbiano avuto miglioramenti.
Infatti afferma che dalle sue ultime analisi sembra che le 7700 siano una release driver dietro. Forse AMD ottimizza prima le top, e poi le mid.
Nel caso specifico è pacifico che sia partita una isteria collettiva immotivata
.
Se qualcuno avesse una RX 6900 , può darci riscontro su COD 7.

Inviato dal mio moto g75 5G utilizzando Tapatalk

Gundam1973
16-11-2025, 04:27
In realtà è molto onesto, è sempre tra i primi a segnalare i bug non risolti.

Lui stesso dice che non sa se le rx 7000 top abbiano avuto ottimizzazioni, ha provato la 7700.
Come non sa se le 6700 abbiano avuto miglioramenti.
Infatti afferma che dalle sue ultime analisi sembra che le 7700 siano una release driver dietro. Forse AMD ottimizza prima le top, e poi le mid.
Nel caso specifico è pacifico che sia partita una osteria collettiva immotivata
.
Se qualcuno avesse una RX 6900 , può darci riscontro su COD 7.

Inviato dal mio moto g75 5G utilizzando Tapatalk

Se volete test specifici posso farveli

ionet
16-11-2025, 12:46
Per la serie, quando AMD ha una buona offerta, ma ci pensa il marketing di AMD a scontentare i clienti con annunci fallaci sui driver...
I nuovi driver danno un boost si COD 7 con le RX 6900 ma non lo danno con le rx 7700...

https://youtu.be/Tq8DSKk_b20?si=4-doxozFUSObqg1K

Inviato dal mio moto g75 5G utilizzando Tapatalk

pensi che non lo hanno fatto apposta?
per mettere a tacere le malelingue e i sospetti per il taglio supporto alle vecchie gpu.. :O

ninja750
17-11-2025, 09:21
Mi sarei aspettato anche qualche supporto fsr4 ufficiale in più...
Per il RR è già un inizio.

mettiamola così, se cominciano a presentare una feature per volta e "funziona" senza i soliti problemi sarebbe già un passo avanti.

dal video comparativo di daniel owen dice che il RR amd in quel gioco SEMBRA migliore di quello nvidia. detto sempre da lui che forse non esiste gioco peggiore per provare RT o RR

ninja750
17-11-2025, 09:22
In realtà è molto onesto, è sempre tra i primi a segnalare i bug non risolti.

Lui stesso dice che non sa se le rx 7000 top abbiano avuto ottimizzazioni, ha provato la 7700.
Come non sa se le 6700 abbiano avuto miglioramenti.
Infatti afferma che dalle sue ultime analisi sembra che le 7700 siano una release driver dietro.

le 7700 hanno un bug che amd sta investigando e ne sono già al corrente, dicono potrebbero risolvere dalla prossima release l'ho letto direttamente da uno di amd

Alekx
17-11-2025, 12:16
pensi che non lo hanno fatto apposta?
per mettere a tacere le malelingue e i sospetti per il taglio supporto alle vecchie gpu.. :O

Sospetti giusti piu' che altro dopo la mia esperienza con CP2077 + FSR4 forzato con OptiScaler (file "scappati per caso") che fa girare questo gioco con la configurazione in firma con RT sparato alto con FPS del tutto ragguardevoli e senza avere problemi di sorta.

Quindi e' come le aziende che aggionano gli smartphone facendoli invecchiare improvvisamente dall'oggi al domani i driver delle vecchie GPU non vengono ottimizzati, specialmente in questo momento dove da quello che mi pare di capire, ma potrei sbagliare, il mondo delle GPU Gaming si e' un po' fermato perche' stanno tutti concentrati sui modelli IA.

Ubro92
17-11-2025, 13:23
Il problema prestazionale non lo risolvi così, già su RDNA3, l'FSR4 in performance ti pesa a metà strada tra lo step quality e bilanciato del 3.x, sicuramente migliore per qualità e accettabile come compromesso.

Però su RDNA2 la perdita è maggiore e mi pare venisse completamente emulato, a mio parere già se riescono a portare l'FSR3.x al pari dell'XESS di intel è grasso che cola, ma per l'FSR4 mi pare una scelta quasi obbligata concentrarsi su RDNA3/4.

StylezZz`
17-11-2025, 16:27
Come prestazioni siamo lì considerando che FSR4 Balanced/Performance è superiore a FSR3 Quality...

Ubro92
17-11-2025, 17:04
Come prestazioni siamo lì considerando che FSR4 Balanced/Performance è superiore a FSR3 Quality...

Già FSR3 bilanciato tira su più fps, su schede di fascia alta si nota poco ma scalando verso il basso soprattutto dove ti servono prestazioni fai prima a usare Xess.
Ma si come detto su, FSR4 performance ha una qualità migliore anche del quality dell'FSR3 ma pesa comunque molto di più degli step bilanciato/performance del 3 con scende non RDNA4.

Mars95
18-11-2025, 08:19
Già FSR3 bilanciato tira su più fps, su schede di fascia alta si nota poco ma scalando verso il basso soprattutto dove ti servono prestazioni fai prima a usare Xess.
Ma si come detto su, FSR4 performance ha una qualità migliore anche del quality dell'FSR3 ma pesa comunque molto di più degli step bilanciato/performance del 3 con scende non RDNA4.


Il caso peggiore per differenza di performance su RDNA2 è questo e direi che tra FSR 4 performance e FSR 3 quality la differenza di prestazioni è irrilevante, parliamo del 2% di differenza.

https://i.postimg.cc/vcC0NYPy/image.png (https://postimg.cc/vcC0NYPy)

Ma poco importa perché la qualità restituita è talmente differente che bisogna essere matti per usare FSR 3 al posto del 4 per avere una manciata di FPS in più.
Cioè se proprio vuoi qualche fps in più piuttosto abbassa qualcosa nelle impostazioni.
Imho non esiste nessun problema prestazionale per FSR 4 su RDNA 2.

ninja750
18-11-2025, 10:29
confermo per le prestazioni

solo che l'unico tweak che ho provato ad oggi è last of us parte 2 dove fsr4 INT8 su RX6800 crea un ghosting netto e visibile, che praticamente non c'è con il fsr 3.1.3 o xess.. quindi tocca giocarlo alla moda vecchia

Ubro92
18-11-2025, 10:54
Il problema è che tieni conto che ti bastasse l'FSR quality per avere un frame decente :sofico:

Su molte sku soprattutto mobile, non ti basta, io quando parlo di RDNA2/RDNA3 tengo conto anche di soluzioni come Deck e Z1E :fagiano:

Ubro92
18-11-2025, 18:08
Abbiamo una data :sofico:

https://cdn.videocardz.com/1/2025/11/FSR-REDSTONE-HERO-1200x624.jpg

EddieTheHead
18-11-2025, 19:07
"AMD Radeon RX9000 series" :fagiano:

immagino chi ha speso quasi mille euro per una 7900

OrazioOC
18-11-2025, 19:32
"AMD Radeon RX9000 series" :fagiano:

immagino chi ha speso quasi mille euro per una 7900

Era nell'aria, per certi versi una generazione sfortunata, un po' come le 3090/ti che non hanno ricevuto il FG. :rolleyes:

belta
18-11-2025, 20:36
"AMD Radeon RX9000 series" :fagiano:

immagino chi ha speso quasi mille euro per una 7900

Io sotto casa di Jensen Huang

https://i.postimg.cc/sxb2SDrr/Screenshot-2025-11-18-203539.png

Ubro92
18-11-2025, 20:47
Era nell'aria, per certi versi una generazione sfortunata, un po' come le 3090/ti che non hanno ricevuto il FG. :rolleyes:

Non da nvidia :sofico:

Windtears
18-11-2025, 20:49
Non da nvidia :sofico:

infatti mi viene da ridere ogni volta che viene tirata fuori sta storia che il supporto sia maggiore dall'altra parte della barricata, quando ad ogni generazione dalla prima iterazione di rtx taglia qualcosa alla serie precedente (gtx compresa).

Sono entrambe compagnie assatanate di denaro non di "fede" dei propri consumatori.

EddieTheHead
18-11-2025, 21:22
'nzomm

chi ha una 2000, architettura di 7 anni fa, può usare dlss4 (per quanto non performante come schede più nuove)

chi ha RDNA2 (architettura più recente con nuovi prodotti usciti nel 2025) lo prende al chiurlo

non mi pare proprio lo stesso

le 4000 non hanno MFG ma tutto il resto sì per quel che ne so.

RNDA3 per ora ha un gran mazzo di niente, le 6000 lasciamo perdere :rolleyes:

floop
18-11-2025, 22:06
'nzomm

chi ha una 2000, architettura di 7 anni fa, può usare dlss4 (per quanto non performante come schede più nuove)

chi ha RDNA2 (architettura più recente con nuovi prodotti usciti nel 2025) lo prende al chiurlo

non mi pare proprio lo stesso

le 4000 non hanno MFG ma tutto il resto sì per quel che ne so.

RNDA3 per ora ha un gran mazzo di niente, le 6000 lasciamo perdere :rolleyes:

esatto, ancora una volta AMD ha fatto schif0

mikael84
18-11-2025, 22:29
'nzomm

chi ha una 2000, architettura di 7 anni fa, può usare dlss4 (per quanto non performante come schede più nuove)

chi ha RDNA2 (architettura più recente con nuovi prodotti usciti nel 2025) lo prende al chiurlo

non mi pare proprio lo stesso

le 4000 non hanno MFG ma tutto il resto sì per quel che ne so.

RNDA3 per ora ha un gran mazzo di niente, le 6000 lasciamo perdere :rolleyes:

L'ISA del 2018 di nvidia (turing) ha segnato una rivoluzione, e salvo le FP8, è per certi versi avanti di RDNA4, come il bvh hardware e pieno supporto PT (poi gira come gira, ma può fare tutto).
Per DLSS4 ha i tensor, e quindi viene emulato via FP16.
L'ISA di base è aggiornata.

Lo stesso discorso lo si faceva con GCN, sempre stessa ISA, con varie aggiunte microarchitetturali, come ad esempio, il picco OFA per FG in lovelace.

L'ISA di RDNA nasce vecchia, rattoppata di gen. in gen. e prima o poi le magagne vengono fuori...

EddieTheHead
18-11-2025, 23:01
posso essere d'accordo su tutto, non discuto di limiti hardware invalicabili, ma qua si tratta di pezzenteria di AMD.

FSR4 su RDNA2 funziona ed è dimostrato (non parlo dell'intero redstone ovviamente, parlo solo dell'upscaler), se non arriva è semplicemente perchè se ne fregano di farlo arrivare. Idem su RDNA3.

Non sono un tecnico e mi correggerete ma mi pare di capire che RDNA3 (al contrario di 2) ha funzioni di accellerazione AI (tanto sbandierate al lancio e mai usate) all'interno delle compute unit anche se non ha AI core dedicati come RDNA4, quindi mi viene da pensare che oltre all'upscaler anche altre cose di Redstone potrebbero girare (magari non bene come sulle 9000, ma cmq potrebbero girare).
Se non arrivano, è perchè ad AMD tira il culo farle arrivare.
O magari arriveranno sulle 7000 per almeno salvare le apparenze, mesi dopo che sulle 9000.


Una compagnia seria il 10 Dicembre presenta tutto già funzionante perfettamente su tutte le schede possibili e immaginabili e magari abbassa pure i prezzi anche solo in maniera simbolica per mettere la freccia su nvidia (visto che da stime grossomodiane pare che le 9000 han venduto quanto blackwell).

Al 90% invece la maggior parte dei clienti Radeon (quindi non chi ha RDNA4 che in quanto schede nuove sono comunque poche) lo prende nel saccoccio.

E nonostante questo ci sarà cmq chi continua a difendere AMD.

A volte mi sembra che per alcuni AMD siano tre stronzi chiusi a lavorare nel garage di Lisa Su e non una compagnia che nel 2025 ha segnato profitti recordi di miliardi di dollari.

Ale55andr0
18-11-2025, 23:19
basta non foraggiare più l'una o l'altra parte a seconda dell'inculata che propinano

EddieTheHead
18-11-2025, 23:55
ah infatti stanti così le cose al prossimo giro (che cmq sarà fra anni se dio vuole) col cacchio che compro radeon

Mars95
19-11-2025, 00:04
OH già a fasciarsi la testa e a insultare AMD per un filmatino da manco 30 secondi?
Siete seri?
Piantatela con i piagnistei continui.

Il 10 dicembre vedremo, forse uscirà solo per RDNA 4, forse solo inizialmente.
Ma diamine ogni volta date già tutto per spacciato.

igiolo
19-11-2025, 09:23
OH già a fasciarsi la testa e a insultare AMD per un filmatino da manco 30 secondi?
Siete seri?
Piantatela con i piagnistei continui.

Il 10 dicembre vedremo, forse uscirà solo per RDNA 4, forse solo inizialmente.
Ma diamine ogni volta date già tutto per spacciato.

per come ha condotto la questione amd negli anni, sicuro che approda, castrata o meno, anche su RDNA3

my 2 cents

Phopho
19-11-2025, 09:25
ah infatti stanti così le cose al prossimo giro (che cmq sarà fra anni se dio vuole) col cacchio che compro radeon

è dalla storia dei driver che stai ammorbando qualunque 3d con piagnistei su amd. per favore, la vendi e compri una verde cosi la smetti?

Mars95
19-11-2025, 09:30
per come ha condotto la questione amd negli anni, sicuro che approda, castrata o meno, anche su RDNA3

my 2 cents

Infatti, sarebbe molto strano il contrario.

è dalla storia dei driver che stai ammorbando qualunque 3d con piagnistei su amd. per favore, la vendi e compri una verde cosi la smetti?

Veramente.
Poi "a sto giro col cacchio che prendo Radeon" e considerato che Nvidia ne ha combinate svariate di peggio immagino che al prossimo giro comprerà una Intel o una Matrox :asd:

Lan_Di
19-11-2025, 11:35
state tutti sereni, scrivo solo

VKD3D-Proton 3.0

poi se volete date pure i vostri danari ad nvidia, comprate anche le sue azioni ...

Ubro92
19-11-2025, 11:40
state tutti sereni, scrivo solo

VKD3D-Proton 3.0

poi se volete date pure i vostri danari ad nvidia, comprate anche le sue azioni ...

Ringrazia Valve :sofico:

Lan_Di
19-11-2025, 11:50
Ringrazia Valve :sofico:

sicuro, ma immagino che senza sinergie e aperture software AMD, valve non potrebbe implementare questi miglioramenti accessibili alla community.

In parole povere, con un soc nvidia, valve sarebbe stata in grado di fare altrettanto?

AMD sta mettendo a disposizione tutto in varie vie traverse, vuole solo togliersi le responsabilità di un supporto ufficiale per un hardware che non da più guadagno (chiamali fessi....).
Ma tutti piangono e acclamano nvidia.:doh:

igiolo
19-11-2025, 11:58
sicuro, ma immagino che senza sinergie e aperture software AMD, valve non potrebbe implementare questi miglioramenti accessibili alla community.

In parole povere, con un soc nvidia, valve sarebbe stata in grado di fare altrettanto?

AMD sta mettendo a disposizione tutto in varie vie traverse, vuole solo togliersi le responsabilità di un supporto ufficiale per un hardware che non da più guadagno (chiamali fessi....).
Ma tutti piangono e acclamano nvidia.:doh:

sono perfettamente d'accordo
non le mette nei paper, ma vanno cmq

mikael84
19-11-2025, 12:01
posso essere d'accordo su tutto, non discuto di limiti hardware invalicabili, ma qua si tratta di pezzenteria di AMD.

FSR4 su RDNA2 funziona ed è dimostrato (non parlo dell'intero redstone ovviamente, parlo solo dell'upscaler), se non arriva è semplicemente perchè se ne fregano di farlo arrivare. Idem su RDNA3.

Non sono un tecnico e mi correggerete ma mi pare di capire che RDNA3 (al contrario di 2) ha funzioni di accellerazione AI (tanto sbandierate al lancio e mai usate) all'interno delle compute unit anche se non ha AI core dedicati come RDNA4, quindi mi viene da pensare che oltre all'upscaler anche altre cose di Redstone potrebbero girare (magari non bene come sulle 9000, ma cmq potrebbero girare).
Se non arrivano, è perchè ad AMD tira il culo farle arrivare.
O magari arriveranno sulle 7000 per almeno salvare le apparenze, mesi dopo che sulle 9000.


Una compagnia seria il 10 Dicembre presenta tutto già funzionante perfettamente su tutte le schede possibili e immaginabili e magari abbassa pure i prezzi anche solo in maniera simbolica per mettere la freccia su nvidia (visto che da stime grossomodiane pare che le 9000 han venduto quanto blackwell).

Al 90% invece la maggior parte dei clienti Radeon (quindi non chi ha RDNA4 che in quanto schede nuove sono comunque poche) lo prende nel saccoccio.

E nonostante questo ci sarà cmq chi continua a difendere AMD.

A volte mi sembra che per alcuni AMD siano tre stronzi chiusi a lavorare nel garage di Lisa Su e non una compagnia che nel 2025 ha segnato profitti recordi di miliardi di dollari.

RDNA3 e 2 possono fare FSR4 con gli interi non hanno FP8 fisicamente, RDNA3 è un tantino avvantaggiata perchè ha istruzioni WMMA matriciali, ma non ha tensor core alla nvidia.
Sono limiti microarchitetturali, ma volendo aggirabili, come, considerando i tempi di rendering, lo era anche il FG su Ampere (no turing).

Ps: In ogni caso evita certi toni!

alethebest90
19-11-2025, 12:07
sicuro, ma immagino che senza sinergie e aperture software AMD, valve non potrebbe implementare questi miglioramenti accessibili alla community.

In parole povere, con un soc nvidia, valve sarebbe stata in grado di fare altrettanto?

AMD sta mettendo a disposizione tutto in varie vie traverse, vuole solo togliersi le responsabilità di un supporto ufficiale per un hardware che non da più guadagno (chiamali fessi....).
Ma tutti piangono e acclamano nvidia.:doh:

ci sono errori che si pagano caro, però dai la strada che si sta aprendo sembra promettere bene.

Sinceramente io con una 6700XT non è che mi piango addosso se non vanno le utlime tecnologie, anzi credo sia anche il momento di comprare una scheda nuova...come sempre è stato ogni 2 GEN ci si pensa

EddieTheHead
19-11-2025, 12:29
è dalla storia dei driver che stai ammorbando qualunque 3d con piagnistei su amd

in effetti non hai torto

facciamo che me ne torno nel mio buco.

Tanto gli ultimi post dimostrano che ho ragione :D


Ps: In ogni caso evita certi toni!

ricevuto! :D

Mars95
19-11-2025, 12:44
Tanto gli ultimi post dimostrano che ho ragione :D


Pari pari ai novax che girano dicendo che avevano ragione loro :asd:
Chi, cosa e quando dimostra che hai ragione? :what:

Ubro92
19-11-2025, 12:47
RDNA3 e 2 possono fare FSR4 con gli interi non hanno FP8 fisicamente, RDNA3 è un tantino avvantaggiata perchè ha istruzioni WMMA matriciali, ma non ha tensor core alla nvidia.
Sono limiti microarchitetturali, ma volendo aggirabili, come, considerando i tempi di rendering, lo era anche il FG su Ampere (no turing).

Ps: In ogni caso evita certi toni!

Alla fine con optiscaler puoi sempre sfruttarlo insieme al dlss anche su turing, e devo dire avrei rimpianto di più se avessero limitato il dlss4 con il transformer...

sicuro, ma immagino che senza sinergie e aperture software AMD, valve non potrebbe implementare questi miglioramenti accessibili alla community.

In parole povere, con un soc nvidia, valve sarebbe stata in grado di fare altrettanto?

AMD sta mettendo a disposizione tutto in varie vie traverse, vuole solo togliersi le responsabilità di un supporto ufficiale per un hardware che non da più guadagno (chiamali fessi....).
Ma tutti piangono e acclamano nvidia.:doh:

Su linux i driver nvidia non sono mai stati granchè, però dalla generazione turing è disponibile un driver opensource ed è in continuo miglioramento e ottimizzazione.

Ovviamente dato che amd produce cpu/gpu e da sempre ha dato supporto alla community incentivando le tecnologie opensource è sicuramente una scelta quasi obbligata se vuoi concorrere sui prezzi e avere una base software più matura.