Redazione di Hardware Upg
15-09-2025, 07:11
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-6090-rubin-cpx-potrebbe-essere-la-base-della-prossima-ammiraglia-nvidia_143427.html
La nuova GPU Rubin CPX dedicata all'intelligenza artificiale presentata da NVIDIA recentemente potrebbe anticipare la futura GeForce RTX 6090. La presenza di unità grafiche dedicate lascia intendere un possibile riutilizzo in ambito gaming con specifiche superiori all'attuale RTX 5090.
Click sul link per visualizzare la notizia.
CrapaDiLegno
15-09-2025, 09:06
Un sacco di speculazioni.
Da un render che potrebbe essere completamente farlocco, e chi segue il mondo degli integrati da un po' sa che spesso persino le foto sono ritoccate per nascondere o camuffare dettagli architetturali, figuriamoci rendere fatto ad hoc, si ricava che le capacità sono quelle di un GB202.
Se però venissero aumentati i TPC per ogni GPC allora si avrebbero caratteristiche superiori al GB202.
Visto che siamo interamente nel mondo della fantasia, io aggiungerei che se mettessero 32 GPC invece che 16, insieme a quel bus da 512 bit Nvidia potrebbe dominare il mercato fino al 2032, cioè un paio d'anni dopo l'arrivo nel mercato consumer dello standard PCIe6. Così potrebbero smettere di fare nuove GPU consumer per i prossimi 6 anni e concentrarsi dove arrivano i soldi veri.
:sofico:
supertigrotto
15-09-2025, 11:52
Le Nvidia sono come il maiale,non si butta via niente......beh la cosa che riciclano la IA per le schede grafiche è la normalità,lo farà la prossima generazione AMD e lo fa già Intel con le sue derivate dei chip A e gli attuali B.
Ci saranno sempre meno unità raster e più unità IA, naturalmente i prezzi aumenteranno,per questo stanno spingendo il più possibile sui "frame finti" altrimenti non possono scusare gli aumenti delle unità IA nelle schede video.
Ripper89
15-09-2025, 12:18
Le Nvidia sono come il maiale,non si butta via niente......beh la cosa che riciclano la IA per le schede grafiche è la normalità,lo farà la prossima generazione AMD e lo fa già Intel con le sue derivate dei chip A e gli attuali B.
Ci saranno sempre meno unità raster e più unità IA, naturalmente i prezzi aumenteranno,per questo stanno spingendo il più possibile sui "frame finti" altrimenti non possono scusare gli aumenti delle unità IA nelle schede video.Riciclare non vuol dire usare gli stessi chips.
Quello forse fino ad ora è accaduto con le x090. Senza contare che un architettura chiplet risolverà tutti i problemi.
supertigrotto
15-09-2025, 12:43
Riciclare non vuol dire usare gli stessi chips.
Quello forse fino ad ora è accaduto con le x090. Senza contare che un architettura chiplet risolverà tutti i problemi.
Sulle GPU costruite con i chiplet, AMD ci sta lavorando da diversi anni,una scheda MI è fatta così,anche Intel ha cominciato a lavorarci,mentre Nvidia ha dichiarato che l'idea è interessante ma per ora e nel breve futuro,le sue progettazioni si baseranno su un design monolitico.
In effetti, tutto si basa sulla velocità delle interconnessioni,le latenze sono un effetto collaterale,le GPU essendo parallelizzate scontano di più il gap con le connessioni interne rispetto alle CPU come l'architettura Zen.
CrapaDiLegno
15-09-2025, 20:45
Sulle GPU costruite con i chiplet, AMD ci sta lavorando da diversi anni,una scheda MI è fatta così,anche Intel ha cominciato a lavorarci,mentre Nvidia ha dichiarato che l'idea è interessante ma per ora e nel breve futuro,le sue progettazioni si baseranno su un design monolitico.
In effetti, tutto si basa sulla velocità delle interconnessioni,le latenze sono un effetto collaterale,le GPU essendo parallelizzate scontano di più il gap con le connessioni interne rispetto alle CPU come l'architettura Zen.
Ti sei perso che Nvidia sono anni che progetta le sue GPU per datacenter come fossero due unità sullo stesso die e che con Blackwell ha finalmente separato il monolitico su due chiplet connettendoli con una interfaccia che AMD, con tutti i suoi anni di studio, ancora deve eguagliare.
Le GPU a chiplet per il mercato consumer sono ancora lontane perché il costo sarebbe proibitivo.
Ma se devo scommettere su chi sarà il primo a fare una GPU gigantesca, costi quel che costi pur di superare la concorrenza e che ha già tentato la cosa in passato con tecnologie super costose, beh, sì, quella è AMD.
sono collegati via controlle di memoria, sprecando 2 GPC per GPU, ossia gli SM di quei 4 GPC non sono abilitabili, perchè non hanno più i controller della memoria, mentre la loro L2 viene utilizzata interamente come crossbar.
veramente una cosa che AMD non si sarebbe mai sognata di fare, fortunatamente per noi.
capo, lascia stare.... non è mai stata una cosa per te capire come funziona una GPU.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.