PDA

View Full Version : GPU AMD, nel futuro machine learning accelerato tramite chiplet?


Redazione di Hardware Upg
30-01-2021, 11:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/gpu-amd-nel-futuro-machine-learning-accelerato-tramite-chiplet_95159.html

Un brevetto di AMD illustra il possibile uso di un chiplet dedicato accanto alla GPU per accelerare il machine learning: un progetto che potrebbe rivelarsi sia nel campo datacenter che in quello gaming in vista di una risposta al DLSS di Nvidia.

Click sul link per visualizzare la notizia.

daitarn_3
30-01-2021, 11:46
semplicemente geniale tra 5 - 10 anni quello che usiamo adesso sarā preistoria

Free Gordon
30-01-2021, 12:19
Credo che le gpu chiplet arriveranno molto prima. :D

Gringo [ITF]
30-01-2021, 13:40
semplicemente geniale tra 5 - 10 anni quello che usiamo adesso sarā preistoria
Come č sempre stato.... 10 anni in informatica sono salti enormi.
Credo che le gpu chiplet arriveranno molto prima.

Le CPU di AMD giā utilizzano i "chiplet" ..... quei 8 tassellini attorno al tassellone sono delle "chiplet", semplicemente il Tassellone grosso, verrā progettato per gestire dei "tassellini" che sono diversi dalla CPU, la vera novitā sarā la progettazione 3D con i tassellini uno sopra l'altro. (Mi domando come sarā progettato il raffreddamento...).

ciolla2005
30-01-2021, 18:01
Ancora a smârrönårė con l'alternativa al DLSS.
L'hanno giā ribadito nelle conferenze: č il Fidelity FX CAS + DRS.
C'č da prima del DLSS 2, e funziona. Basta vedere il boost su Cyberpunk...

boboviz
31-01-2021, 08:18
Sembra molto interessante, dal momento che un prodotto del genere sembrerebbe utilizzabile sia in ambito gaming che in ambito gpgpu. Vedremo.

tuttodigitale
31-01-2021, 11:00
;47254333']Come č sempre stato.... 10 anni in informatica sono salti enormi.


Le CPU di AMD giā utilizzano i "chiplet" ..... quei 8 tassellini attorno al tassellone sono delle "chiplet", semplicemente il Tassellone grosso, verrā progettato per gestire dei "tassellini" che sono diversi dalla CPU, la vera novitā sarā la progettazione 3D con i tassellini uno sopra l'altro. (Mi domando come sarā progettato il raffreddamento...).
la tecnologia impiegata da Amd per Ryzen č meno innovativs di quella di Fury. La novitā (e non č neppure visto che Intel ha fatto lo stesso 10 anni fa) č di avere die distinti sullo stesso package fatte con tecnologie differenti per MC e i core..
Il risultato eccellente che Amd ha ottenuto non dipende dall'impiego di chissā quale innovazione nella produzione, con la sola ed evidente eccezione dei 7nm di Tsmc.

Il futuro č altro, si va dall'utilizzo di interposer passivi come in Fury, ad emib, fino ad arrivare ad interposer attivi...

Per il raffreddamento degli stack 3d..giā vengono prodotti memorie hbm2 e flash.. ovviamente si tratta di prodotti con una densitā di potenza intrinsecamente pių bassa.... ma nelle CPU non tutti gli elementi consumano tanto rispetto all'area occupata... basti pensare alle cache l2 ed l3...

k0nt3
31-01-2021, 11:54
la tecnologia impiegata da Amd per Ryzen č meno innovativs di quella di Fury. La novitā (e non č neppure visto che Intel ha fatto lo stesso 10 anni fa) č di avere die distinti sullo stesso package fatte con tecnologie differenti per MC e i core..
Il risultato eccellente che Amd ha ottenuto non dipende dall'impiego di chissā quale innovazione nella produzione, con la sola ed evidente eccezione dei 7nm di Tsmc.

Infinity Fabric non merita nemmeno una menzione? Certo che il design MCM non č una novitā assoluta, ma il successo dipende anche da come viene implementato.
I 7nm hanno senza dubbio aiutato, ma ricordiamoci che il successo Zen lo ha avuto con i 14nm.
Secondo me semplicemente AMD ha sempre puntato sulla computazione eterogenea, e ora che ha in mano le tecnologie giuste i tasselli stanno andando al proprio posto.
Si apriranno scenari molto interessanti, soprattutto sui server, quando saranno in grado di produrre chiplet per CPU, GPU e ML e di combinarli a piacimento. Personalmente non vedo l'ora che abbandonino il design monolitico sulle APU, ormai i tempi sono quasi maturi.

kabuby77
01-02-2021, 12:04
GPU + FPGA = MINING +++++++++:ubriachi:
Ci siamo lamentati sino ad oggi dei miner che tolgono schede video alle ai gamer, ma se amd costruisse veramente una scheda del genere, penso che andrebbe cosė a ruba che Lisa Su non riuscirebbe ad averne una per la presentazione.....