Ubuntu integrerà nativamente NVIDIA CUDA: addio alle procedure complesse
Canonical annuncia il supporto ufficiale a NVIDIA CUDA e la sua distribuzione diretta nei repository di Ubuntu. Grazie a questa integrazione, l'installazione del toolkit diventerà un processo semplificato, ridotto a un solo comando.
di Manolo De Agostini pubblicata il 16 Settembre 2025, alle 10:21 nel canale Sistemi OperativiCUDANVIDIAUbuntu
Canonical, l'azienda dietro la distribuzione Ubuntu, ha annunciato l'integrazione ufficiale del toolkit NVIDIA CUDA nei propri repository. L'iniziativa, frutto della collaborazione pluriennale con NVIDIA, punta a semplificare in modo significativo l'installazione e la gestione di CUDA, rendendo più immediato lo sviluppo di applicazioni basate su GPU.
CUDA è una piattaforma di calcolo parallelo e un modello di programmazione che consente agli sviluppatori di sfruttare le GPU NVIDIA per elaborazioni di tipo general-purpose. Attraverso la sua architettura SIMT (Single-Instruction Multiple Thread), offre un controllo dettagliato su thread, gerarchie di memoria e kernel, accelerando calcoli numerici complessi e operazioni tensoriali, alla base di applicazioni di intelligenza artificiale e high-performance computing.

Fino ad oggi, il toolkit veniva distribuito principalmente attraverso il sito ufficiale NVIDIA. Con questa novità, invece, gli sviluppatori potranno accedere a CUDA direttamente dall'ambiente Ubuntu, installandolo tramite i repository ufficiali con un singolo comando. Questa modalità riduce i passaggi necessari, garantisce una maggiore coerenza con l'ecosistema software di Ubuntu e assicura la compatibilità con una vasta gamma di hardware NVIDIA.
Per Canonical, si tratta di un passo strategico. Ubuntu è già ampiamente diffuso nei datacenter e nelle infrastrutture cloud, ed è considerato uno standard de facto in numerosi scenari di sviluppo AI. L'integrazione nativa di CUDA rafforza ulteriormente questa posizione, permettendo agli sviluppatori di dichiarare semplicemente il runtime CUDA, lasciando al sistema operativo la gestione delle dipendenze e degli aggiornamenti.
Parallelamente, anche AMD sta lavorando per migliorare la distribuzione del proprio stack ROCm, confermando la crescente attenzione delle principali aziende al tema della semplificazione dell'accesso a strumenti di calcolo GPU-based.










Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Mova Z60 Ultra Roller Complete: pulisce bene grazie anche all'IA
Renault Twingo E-Tech Electric: che prezzo!
Lo compri una volta, lo giochi dove vuoi: PlayStation intende seguire l'esempio di Xbox Play Anywhere?
Qiantinuum annuncia Helios, "il computer quantistico più potente al mondo"
Samsung Galaxy S26 Ultra: una sola novità tra i sensori delle fotocamere
Google prepara Gemini 3 Pro e Nano Banana 2: arrivo previsto entro fine anno
TVS non è solo moto e scooter: ecco la e-bike Cilo Tanay HC1 in carbonio
Alexa+ arriva su BMW: gli automobilisti potranno conversare in maniera naturale con l'auto
Gemini Deep Research arriva su Google Finance: la nuova IA proverà ad anticipare il mercato
Rinvii a catena, Marvel 1943: Rise of Hydra slitta oltre il 2026 a data da destinarsi
Xiaomi inaugura uno spazio dedicato ai fan durante le Nitto ATP Finals 2025
Rilasciate le specifiche di Bluetooth 6.2: mai più dongle USB dedicati per tastiere e mouse?
L'obiettivo che mette tutto a fuoco: la rivoluzione ottica arriva dalla Carnegie Mellon
Meta avrebbe raccolto fino al 10% dei ricavi 2024 da inserzioni fraudolente. L’azienda respinge: quadro distorto
NVIDIA DGX Spark e videogiochi? Una pessima idea, anche se funziona
Serie Oppo Reno15 confermata: arriva il 10 novembre in Cina con fotocamera da 200 MP









6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSi sa da quando si potrà avere questa modifica?
Riformatterei tutto, visto che per ora questa mancata integrazione crea spiacevoli inconvenienti
se vogliamo salvarci dalla censura i modelli deep learning in locale sono la soluzione, la configurazione facilitata è fondamentale, chiaro che CUDA è un passaggio fondamentale finchè nvidia tiene di fatto il monopolio.
se vogliamo salvarci dalla censura i modelli deep learning in locale sono la soluzione, la configurazione facilitata è fondamentale, chiaro che CUDA è un passaggio fondamentale finchè nvidia tiene di fatto il monopolio.
Sia in Europa che negli Stati Uniti, dovrebbero imporre l'uso di standard aperti per favorire la concorrenza. Eppure a nessuno importa, anche davanti all'IA...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".