CUDA e RISC-V fanno l'amore: NVIDIA abbraccia l'architettura open source

NVIDIA ha annunciato il supporto della piattaforma CUDA per CPU basate su RISC-V, aprendo all'adozione di architetture open source nei sistemi AI e embedded. Un passo strategico che estende le possibilità d'uso di CUDA oltre x86 e Arm, con potenziali ripercussioni anche in ambito datacenter e nel mercato cinese.
di Manolo De Agostini pubblicata il 21 Luglio 2025, alle 08:01 nel canale ProcessoriCUDANVIDIARISC-V
Nel corso del RISC-V Summit 2025 in Cina, NVIDIA ha annunciato il supporto della sua piattaforma CUDA per l'architettura RISC-V, segnando un'apertura significativa verso l'adozione di CPU basate su set di istruzioni open source nei contesti ad alte prestazioni. L'annuncio è stato dato da Frans Sijstermans, vicepresidente della divisione Hardware Engineering di NVIDIA, durante uno degli interventi principali dell'evento.
Fino a oggi, CUDA - acronimo di Compute Unified Device Architecture - è stato principalmente compatibile con sistemi x86_64 e Arm (AArch64), ma in passato ha trovato posto anche su architetture come IBM POWER. Il nuovo supporto a RISC-V amplia ulteriormente il campo d'azione della piattaforma di calcolo parallelo, permettendo l'integrazione anche in configurazioni che prediligono soluzioni open o "customizzate".
Exciting news from #RISCVSummitChina, as Frans Sijstermans from NVIDIA announces CUDA is coming to RISC-V! This port will enable a RISC-V CPU to be the main application processor in a CUDA-based AI system.#RISCV #RISCVEverywhere pic.twitter.com/08C2ghPHq9
— RISC-V International (@risc_v) July 18, 2025
Durante la presentazione è stato mostrato uno schema che illustra l'integrazione del software CUDA in un sistema eterogeneo: la CPU RISC-V gestisce il sistema operativo, i driver e la logica applicativa, mentre la GPU si occupa dei carichi di lavoro paralleli, tipicamente legati all'intelligenza artificiale. A completare il quadro, una DPU (Data Processing Unit) cura le operazioni di rete. Questa visione riflette l'obiettivo di NVIDIA di costruire piattaforme scalabili in cui il carico di lavoro venga distribuito tra componenti specializzate, con la CPU RISC-V a fare da regista.
Il supporto a RISC-V potrebbe inizialmente trovare applicazione nei moduli embedded Jetson, ma lascia intendere anche una volontà più ampia: nonostante la scarsa probabilità che queste CPU trovino posto a breve nei grandi datacenter, NVIDIA sembra voler posizionare RISC-V come opzione concreta per l'orchestrazione nei sistemi AI, anche in ambienti dove le CPU x86 o Arm non sono facilmente adottabili.
Sul fronte dei concorrenti, AMD ha già fatto passi simili, con il driver open source AMDKFD e la piattaforma ROCm che sono già compilabili per architetture RISC-V e, più recentemente, anche su LoongArch.
L'annuncio potrebbe avere implicazioni strategiche importanti. In un momento in cui le restrizioni sul mercato cinese limitano l'esportazione di prodotti di fascia alta come le soluzioni GB200 e GB300, estendere la compatibilità CUDA a un'architettura open come RISC-V potrebbe rappresentare un modo per mantenere viva l'adozione della piattaforma, soprattutto in mercati con esigenze di personalizzazione e indipendenza tecnologica come la Cina.
2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".