Mettereste una NPU dedicata all'intelligenza artificiale nel vostro PC? AMD sta valutando l'idea

Mettereste una NPU dedicata all'intelligenza artificiale nel vostro PC? AMD sta valutando l'idea

AMD sta valutando la possibilità di sviluppare una NPU dedicata per PC, destinata a occuparsi esclusivamente dei carichi AI al posto della GPU. Il progetto è ancora in fase di valutazione e oggetto di discussioni con i clienti.

di pubblicata il , alle 08:33 nel canale Schede Video
XDNAAMD
 

Con l'espansione sempre più marcata dell'intelligenza artificiale nel mondo PC, AMD sta esplorando nuove soluzioni per offrire prestazioni AI elevate senza necessariamente ricorrere alle classiche GPU discrete. Lo ha confermato Rahul Tikoo, vicepresidente senior e responsabile della divisione CPU client dell'azienda, al sito CRN.com.

L'idea sul tavolo è quella di sviluppare un acceleratore dedicato che non sia una GPU, bensì una neural processing unit (NPU) discreta. Una scheda indipendente, quindi, pensata specificamente per gestire carichi di lavoro legati all'intelligenza artificiale in modo più efficiente, soprattutto in termini di consumo energetico. "È un insieme di casi d'uso completamente nuovo, ma stiamo osservando da vicino questo settore", ha dichiarato Tikoo. "Se guardate alla nostra tecnologia, non è difficile immaginare che possiamo arrivarci rapidamente".

La proposta si inserisce in un contesto di crescente interesse per soluzioni AI dedicate nei PC. OEM come Dell, Lenovo e HP stanno già testando l'adozione di NPU discrete. Dell, ad esempio, ha recentemente presentato una workstation mobile Dell Pro Max Plus dotata di Qualcomm Cloud AI 100, una scheda per l'inferenza AI in grado di raggiungere 450 TOPS in un TDP massimo di 75 watt.

Anche Intel ha già avuto un'esperienza in tal senso, con l'integrazione di una VPU discreta (Movidius) nei Surface Laptop di Microsoft del 2023 prima dell'avvento della NPU nei chip Core Ultra. Parallelamente, startup come Encharge AI stanno cercando di entrare nel mercato con soluzioni compatte, come NPU in formato M.2 con consumi inferiori a 10 watt e performance nell'ordine delle centinaia di TOPS.

Nel caso di AMD, la base tecnologica sarebbe rappresentata dalle architetture AI derivate dall'acquisizione di Xilinx, come dimostrano i recenti processori Ryzen AI - APU Strix Point e Strix Halo, in grado di supportare modelli LLM fino a 128 miliardi di parametri in esecuzione locale. La tecnologia XDNA, in particolare, potrebbe diventare il cuore pulsante anche di future soluzioni discrete, scalabili ben oltre i 50 TOPS delle attuali NPU integrate.

Secondo Christopher Cyr, CTO della società di system integration Sterling Computers, l'approccio modulare di AMD potrebbe consentire soluzioni discrete ad alte prestazioni con consumi sensibilmente inferiori rispetto alle GPU. "Basta raddoppiare le tile per raggiungere 100 TOPS", ha osservato, sottolineando però la necessità di mantenere l'efficienza energetica al centro del progetto.

Tikoo, pur mantenendo riserbo sulla roadmap ufficiale, ha lasciato intendere che lo sviluppo è tecnicamente alla portata: "Non posso parlare di piani futuri, ma è qualcosa che possiamo fare rapidamente".

L'adozione di una NPU discreta potrebbe colmare un vuoto attualmente presente nel mercato consumer AI: mentre i laptop beneficiano sempre più spesso di NPU integrate nei SoC, i desktop tradizionali o le workstation compatte non dispongono oggi di soluzioni equivalenti, a meno che non si ricorra a GPU potenti dotate di Tensor core / Ray Accelerator.

Una NPU discreta permetterebbe di abilitare inferenza locale avanzata anche su piattaforme che, fino ad ora, si affidavano alla sola GPU o al cloud. Resta da vedere se AMD deciderà di passare all'azione e, nel caso, se l'eventuale soluzione sarà posizionata inizialmente nel segmento consumer o in quello professionale.

54 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Paganetor31 Luglio 2025, 08:35 #1
non è un ragionamento tanto diverso da quello che avviene già con le GPU (integrata per chi non ha particolari esigenze di prestazioni o discreta per chi vuole il massimo) o per le schede audio (idem come sopra).

Bisogna solo capire se la cosa porta effettivamente dei vantaggi pratici.
boboviz31 Luglio 2025, 08:40 #2
Tutto bellissimo.
Ma poi mi chiedo: per farci cosa? Excel??
Mars9531 Luglio 2025, 08:54 #3
Originariamente inviato da: boboviz
Tutto bellissimo.
Ma poi mi chiedo: per farci cosa? Excel??


Ci sono un sacco di applicazioni, ma non me ne viene in mente nessuna che sia utile per un utente casalingo o uso ufficio.

Ma chiunque abbia necessità di una AI propria che gira in locale troverebbe molto utile un hw del genere e una cosa del genere sarebbe utile in praticamente tutti gli ambiti lavorativi.
In realtà anche excel si ma per quella si possono usare servizi AI cloud, in locale credo sia più utili per AI addestrate per compiti specifici.
demon7731 Luglio 2025, 09:12 #4
Anche io sono scettico.
Su un PC se mi serve potenza di calcolo per una IA di tanto in tanto va benissimo usare la GPU.. non vedo il senso di un chip dedicato.

Non capisco nemmeno il senso di una IA "locale".. che potenza ha? E che me ne faccio?
Mettendo tutto insieme non è di gran lunga meglio sia come qualità del risultato che come prestazioni in generale usare un servizio esterno on line che fa affidamento su modelli IA molto più complessi, avanzati ed ingombranti?
-name-31 Luglio 2025, 09:23 #5
Originariamente inviato da: Mars95
Ci sono un sacco di applicazioni, ma non me ne viene in mente nessuna che sia utile per un utente casalingo o uso ufficio.

Ma chiunque abbia necessità di una AI propria che gira in locale troverebbe molto utile un hw del genere e una cosa del genere sarebbe utile in praticamente tutti gli ambiti lavorativi.
In realtà anche excel si ma per quella si possono usare servizi AI cloud, in locale credo sia più utili per AI addestrate per compiti specifici.



Per farci girare i modelli in locale es:

Draw Things per creare immagini con modelli specifici di ogni tipo di immagine/stile

Ollama per avere un ChatGPT in locale senza censure e costi mensili

In generale più sicurezza per l'utente/azienda e, in teoria, costi contenuti
marcram31 Luglio 2025, 09:34 #6
Originariamente inviato da: Mars95
Ci sono un sacco di applicazioni, ma non me ne viene in mente nessuna che sia utile per un utente casalingo o uso ufficio.

Riconoscimento vocale e dettatura
Analisi foto, con etichettatura automatica, e gestione volti
Assistente personale locale

Le applicazioni poi nascono quando c'è la disponibilità della funzione...
Originariamente inviato da: demon77
Mettendo tutto insieme non è di gran lunga meglio sia come qualità del risultato che come prestazioni in generale usare un servizio esterno on line che fa affidamento su modelli IA molto più complessi, avanzati ed ingombranti?

Il che vuol dire consegnare i tuoi dati sensibili ad un'entità che, probabilmente, poi li vende?
gparlav31 Luglio 2025, 09:34 #7
Originariamente inviato da: Mars95
Ci sono un sacco di applicazioni, ma non me ne viene in mente nessuna che sia utile per un utente casalingo o uso ufficio.

Ma chiunque abbia necessità di una AI propria che gira in locale troverebbe molto utile un hw del genere e una cosa del genere sarebbe utile in praticamente tutti gli ambiti lavorativi.
In realtà anche excel si ma per quella si possono usare servizi AI cloud, in locale credo sia più utili per AI addestrate per compiti specifici.


In ufficio stiamo provando a usare vari strumenti IA, con scarsi risultati. Il problema maggiore è che non riusciamo a gestire il divieto di inviare documenti interni, spesso riservati, verso l'esterno.

Avere un motore IA interno, sulle proprie macchine oppure su mini server dipartimentali disponibili per un ridotto numero di persone, potrebbe diventare la svolta. E se le cose funzionano, l'azienda è già pronta a investire pesantemente per sviluppare server interni per utilizzi interni.

Al momento, nelle mie prove fatte con servizi esterni (tutti i più famosi), i risultati sono stati scarsi. E non sono l'unico ad avere la medesima opinione in azienda.
Alodesign31 Luglio 2025, 09:42 #8
Originariamente inviato da: marcram

Il che vuol dire consegnare i tuoi dati sensibili ad un'entità che, probabilmente, poi li vende?


Come già facciamo quotidianamente.
marcram31 Luglio 2025, 09:46 #9
Originariamente inviato da: Alodesign
Come già facciamo quotidianamente.

Beh, se TU già lo fai, allora sì, a TE non cambia niente...
boboviz31 Luglio 2025, 10:06 #10
Originariamente inviato da: -name-
Per farci girare i modelli in locale es:
Draw Things per creare immagini con modelli specifici di ogni tipo di immagine/stile
Ollama per avere un ChatGPT in locale senza censure e costi mensili
In generale più sicurezza per l'utente/azienda e, in teoria, costi contenuti


Originariamente inviato da: marcram
Riconoscimento vocale e dettatura
Analisi foto, con etichettatura automatica, e gestione volti
Assistente personale locale


Ripeto: tutto bellissimo, sul serio.
E tutto assolutamente di nicchia estrema (quali aziende fanno "gestione volti" in Italia, per dire?).

La cosa cambierebbe già se, per esempio, si parlasse di "database".
Ma quelli, di solito, stanno su server e non sui pc portatili di cui parla l'articolo.

Boh, aspettiamo e vediamo

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^