Quote:
Originariamente inviato da CrapaDiLegno
Quando è uscito Turing AMD aveva già delineato le caratteristiche di RDNA2.
|
Questo lo dici tu, in altre parole, rimangono tue opinioni, fantasie o chiamiamole in qualsivoglia altro modo.
Quote:
Originariamente inviato da CrapaDiLegno
Con RDNA2 è tornata di volata a fare delle modifiche "al volo "...
|
Aridaje, Turing era uscita a settembre 2018, mentre le RDNA1 a luglio 2019. Considerando che RDNA2 è di fine ottobre 2020 se volevano "copiare" le logiche Nvidia, ne avevano tutto il tempo.
AMD ed Nvidia mediamente impiegano circa 2 anni per progettare un'architettura (ex-novo), e certamente se ne sviluppa uno alla volta, altrimenti andrebbero in concorrenza di risorse gli stessi reparti...una cosa talmente banale che è fin ridicolo doverla spiegare. Se è un aggiornamento di architettura, ovviamente anche meno. Che poi a livello di mercato ci siano delle tempistiche "commerciali" è tutto un altro paio di maniche.
E se proprio volevano cambiare idea l'avrebbero fatto con RDNA3, ma probabilmente non capisci il significato di scelta. Così come intel ha scelto di fare diversamente.
Quote:
Originariamente inviato da CrapaDiLegno
Poi, l'infinity cache non l'ha mica inventata AMD...
Le cache sulle GPU crescono da sempre...ma che poi si rivelano sempre poco performanti
|
Baggianata colossale, dato che con Ada Lovelace Nvidia ha copiato l'approccio di AMD andando ad estendere in modo "esagerato" la loro cache (poco importa che sia L2 o L3)
Piccolo Recap
RTX 2080 Ti (5.5 MB) RTX 3090 Ti (6 MB ) RTX 4090 (72 MB )
Fun Fact: Toms HW ha menzionato "Infinity Cache" anche su Nvidia
https://www.tomshardware.com/feature...ything-we-know
Nvidia poteva starsene con la miserabile cache precedente, ma evidentemente, la soluzione AMD funzionava e bene. Tantè che Intel, guardacaso combinazione, con le nuove B580/B570 ha fatto la stessa cosa
Quote:
Originariamente inviato da CrapaDiLegno
Intel usa la cache esterna L3 nelle sue GPU da tempo con le Iris.
|
E quella logica precedente funzionava talmente bene che con le ultime Battlemage hanno cambiato o meglio si sono "adeguati", giusto il tempo di trovare l'ispirazione
Quote:
Originariamente inviato da CrapaDiLegno
Non hai portato un benemerito cazzo.
|
Ho altri gusti
Quote:
Originariamente inviato da CrapaDiLegno
Solo un benchmark...
|
Premessa già fatta...non farmela ripetere...
Quote:
Originariamente inviato da CrapaDiLegno
Tantomeno in parallelo a qualcosa d'altro che a sua volta non esiste.
|
Evidentemente conosci solo la definizione geometrica di parallelo...di solito quando qualcuno non capisce, ironicamente si dice: "ti faccio un foto?". Ma l'ho già postata prima...non dirmi ora che sei ipovedente
La vera realtà che hai una visione (e sono generoso) completamente imposta dal marketing, assolutamente ottusa.
Siccome la teoria va bene, ma fino and un certo punto come ho detto prima, andiamo sul pratico, ti faccio io una domanda:
Prendiamo in considerazione N°2 schede: la 4060 e la 3080.
La 3080 è una scheda che ha capacità computazionali maggiori della 4060, overall; Mi spieghi allora perché la 3080 non può usare il DLSS 3.x e nemmeno il Frame Generator?
STUPISCIMI