View Single Post
Old 08-12-2024, 23:55   #10
Max Power
Senior Member
 
L'Avatar di Max Power
 
Iscritto dal: Jan 2003
Messaggi: 3153
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Quando è uscito Turing AMD aveva già delineato le caratteristiche di RDNA2.
Questo lo dici tu, in altre parole, rimangono tue opinioni, fantasie o chiamiamole in qualsivoglia altro modo.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Con RDNA2 è tornata di volata a fare delle modifiche "al volo "...
Aridaje, Turing era uscita a settembre 2018, mentre le RDNA1 a luglio 2019. Considerando che RDNA2 è di fine ottobre 2020 se volevano "copiare" le logiche Nvidia, ne avevano tutto il tempo.

AMD ed Nvidia mediamente impiegano circa 2 anni per progettare un'architettura (ex-novo), e certamente se ne sviluppa uno alla volta, altrimenti andrebbero in concorrenza di risorse gli stessi reparti...una cosa talmente banale che è fin ridicolo doverla spiegare. Se è un aggiornamento di architettura, ovviamente anche meno. Che poi a livello di mercato ci siano delle tempistiche "commerciali" è tutto un altro paio di maniche.

E se proprio volevano cambiare idea l'avrebbero fatto con RDNA3, ma probabilmente non capisci il significato di scelta. Così come intel ha scelto di fare diversamente.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Poi, l'infinity cache non l'ha mica inventata AMD...
Le cache sulle GPU crescono da sempre...ma che poi si rivelano sempre poco performanti
Baggianata colossale, dato che con Ada Lovelace Nvidia ha copiato l'approccio di AMD andando ad estendere in modo "esagerato" la loro cache (poco importa che sia L2 o L3)

Piccolo Recap

RTX 2080 Ti (5.5 MB) RTX 3090 Ti (6 MB ) RTX 4090 (72 MB )

Fun Fact: Toms HW ha menzionato "Infinity Cache" anche su Nvidia

https://www.tomshardware.com/feature...ything-we-know

Nvidia poteva starsene con la miserabile cache precedente, ma evidentemente, la soluzione AMD funzionava e bene. Tantè che Intel, guardacaso combinazione, con le nuove B580/B570 ha fatto la stessa cosa


Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Intel usa la cache esterna L3 nelle sue GPU da tempo con le Iris.
E quella logica precedente funzionava talmente bene che con le ultime Battlemage hanno cambiato o meglio si sono "adeguati", giusto il tempo di trovare l'ispirazione

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Non hai portato un benemerito cazzo.
Ho altri gusti

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Solo un benchmark...
Premessa già fatta...non farmela ripetere...

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Tantomeno in parallelo a qualcosa d'altro che a sua volta non esiste.
Evidentemente conosci solo la definizione geometrica di parallelo...di solito quando qualcuno non capisce, ironicamente si dice: "ti faccio un foto?". Ma l'ho già postata prima...non dirmi ora che sei ipovedente

La vera realtà che hai una visione (e sono generoso) completamente imposta dal marketing, assolutamente ottusa.


Siccome la teoria va bene, ma fino and un certo punto come ho detto prima, andiamo sul pratico, ti faccio io una domanda:

Prendiamo in considerazione N°2 schede: la 4060 e la 3080.

La 3080 è una scheda che ha capacità computazionali maggiori della 4060, overall; Mi spieghi allora perché la 3080 non può usare il DLSS 3.x e nemmeno il Frame Generator?

STUPISCIMI
__________________

MASTER: Ryzen 5 9600X LC,Powercolor RX 7700XT,MSI PRO B650M-A WIFI,32GB Ram 6000 CL30 FLARE X in DC,Samsung 980Pro 512GB G4 + 980Pro 2TB G4 + SSHD 2TB SATA + HDD 1TB SATA,Audio ALC897,MSI MPG A650GF,Win 11 PRO,TK X-SUPERALIEN + AQUARIUS III,MSI 32" Optix MAG322CQR,MSI VIGOR GK30 COMBO,MSI Agility GD20 PAD,MSI IMMERSE GH10 HEADSET

Ultima modifica di Max Power : 09-12-2024 alle 12:40.
Max Power è offline   Rispondi citando il messaggio o parte di esso
 
1