Ryzen AI Max+: secondo Intel non hanno senso, consumi troppo elevati per ciò che offrono

Ryzen AI Max+: secondo Intel non hanno senso, consumi troppo elevati per ciò che offrono

Intel conferma di non voler competere con le APU AMD Strix Halo sul fronte delle iGPU ad altissima potenza. Per l'azienda, considerati i consumi, la proposta di AMD è poco competitiva sia sul fronte prestazionale che dei consumi

di pubblicata il , alle 11:39 nel canale Processori
IntelCorePanther LakeAMDRyzenZengaming hardware
 

In un'intervista con Club386, Tom Petersen di Intel ha criticato aspramente le proposte Strix Halo di AMD e in particolare quello che dovrebbe essere uno dei loro punti di forza: la potentissima iGPU integrata. Tuttavia, pare che Intel – almeno per il momento – non intenda proporre alcuna alternativa alle APU top di gamma di AMD.

Secondo Petersen, il segmento prestazionale occupato da Strix Halo rientra in una fascia che Intel considera prevalentemente discreta, ovvero più adatta a GPU dedicate. L'esperto, infatti, ritiene che la proposta di AMD non sia competitiva, soprattutto se si relazionano prestazioni e consumi.

"L'attuale prodotto AMD non è molto competitivo, né in termini di potenza né di prestazioni per Watt". In particolare, per Petersen sarebbe molto più conveniente (ed efficiente) l'adozione di una piccola GPU dedicata per raggiungere o superare le prestazioni grafiche offerte da Strix Halo.

Attualmente, la Intel Arc B390 risulta superata solo dalla Radeon 8060S integrata nel Ryzen AI Max+ 395 e relative varianti come l'AI Max+ 392, ma Petersen ha chiarito che l'azienda non intende spingersi oltre sul fronte iGPU.

Per quanto riguarda l'offerta di GPU discrete, la Arc B580 rimane la top di gamma dell'azienda per il segmento consumer. In cantiere avrebbe dovuto esserci anche una Arc B770, erede della Arc A770 ma, secondo le ultime indiscrezioni, il costo della memoria potrebbe aver messo in pausa il progetto che, forse, non arriverà sul mercato. Sul fronte professionale, invece, dovrebbe arrivare la vociferata Arc Pro B70 con 32 GB di memoria RAM.

Guardando al futuro, Intel scommette profondamente sulle iGPU delle future CPU basate su architettura Nova Lake. I nuovi processori dovrebbero introdurre le architetture Xe3P e Xe4 per il tile grafico, mentre AMD pare orientata a proseguire con RDNA 3.5 anche per la prossima generazione di APU. Una scelta che potrebbe rappresentare un importante vantaggio competitivo per Intel.

18 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Micene.127 Gennaio 2026, 11:58 #1
certo sentire parlare intel di efficienza e consumi...
roccia123427 Gennaio 2026, 12:03 #2
Oste, com'è il vino dell'altra osteria?
Zappz27 Gennaio 2026, 12:04 #3
In realtà hanno ragione, fatti lavorare a bassa potenza scalano malissimo.
ninja75027 Gennaio 2026, 12:04 #4
..quando per contrastare la concorrenza uscì con il 14900k da 280w
CrapaDiLegno27 Gennaio 2026, 13:33 #5
Intel ha perfettamente ragione, ma dimentica una cosa: che nessun produttore vuole mettere una GPU discreta con le CPU di AMD. Tanto meno una GPU AMD che consuma un botto per non riuscire ad accelerare nulla con l'AI mancando dei tensor core.
Quindi ad AMD non resta che giocare la carta della mega super hyper iGPU che condivide la memoria di sistema per ottenere qualche punto di vantaggio nei lavori AI. Super mega iGPU che ovviamente è montata solo su 4 modelli in croce che costano un patrimonio. E più che altro usati in mini PC da prezzi ancora più assurdi marketizzati per uso AI (che barzelletta!).
Tanto per flexare i muscoli.

Gli altri, come detto, possono usare le GPU discrete e ottenere migliori prestazioni/W in tutti i contesti in cui serve il lavoro di una vera GPU moderna.
supertigrotto27 Gennaio 2026, 13:50 #6
Originariamente inviato da: CrapaDiLegno
Intel ha perfettamente ragione, ma dimentica una cosa: che nessun produttore vuole mettere una GPU discreta con le CPU di AMD. Tanto meno una GPU AMD che consuma un botto per non riuscire ad accelerare nulla con l'AI mancando dei tensor core.
Quindi ad AMD non resta che giocare la carta della mega super hyper iGPU che condivide la memoria di sistema per ottenere qualche punto di vantaggio nei lavori AI. Super mega iGPU che ovviamente è montata solo su 4 modelli in croce che costano un patrimonio. E più che altro usati in mini PC da prezzi ancora più assurdi marketizzati per uso AI (che barzelletta!).
Tanto per flexare i muscoli.

Gli altri, come detto, possono usare le GPU discrete e ottenere migliori prestazioni/W in tutti i contesti in cui serve il lavoro di una vera GPU moderna.


Io la vedo diversamente,una GPU integrata ma ottima,ti permette di gestire la scheda madre e il sistema di raffreddamento in modo più semplice,difatti Nvidia vuole lanciare notebook con soc Arm con GPU e unità tensoriali integrate e non una CPU+GPU con integrati i tensor core.
Questo permette di avere schede madri per notebook e mini PC più semplici da progettare e raffreddare.
Per quanto riguarda la GPU integrata di AMD,usare rdna 3.5 su soc economici,darebbe la possibilità di avere driver e software maturi e stabili per molto tempo,anche per i notebook più vecchi,vero che prestazionalmente (gaming soprattutto) non sarebbe il massimo ma almeno avere supporto driver e software per lungo tempo, permettere di avere stabilità con i programmi professionali.
Sono sempre indiscrezioni mai confermate da AMD,anche se dalle indiscrezioni,i soc top gamma o medio gamma avranno la GPU integrata con architettura fresca ,ovvero il sucessore di rdna4 che dovrebbe essere udna (la fusione di rdna con cdna)
Per ora sono solo indiscrezioni, AMD non ha detto ancora nulla di ufficiale,le strategie cambiano,basti vedere quelli che è successo con Nvidia che sta ritardando o cancellando le serie 5000 del giro di boa,ovvero la stessa architettura ma migliorata,come ha sempre fatto negli ultimi anni.
È un periodo strano,le carenze di memorie e gli aumenti di Tsmc faranno da freno al mercato,progettare CPU o GPU molto performanti (il che ha un elevato costo) per vendere poche,non conviene ne a Intel nel ad Amd.
Zappz27 Gennaio 2026, 14:08 #7
Originariamente inviato da: CrapaDiLegno
Intel ha perfettamente ragione, ma dimentica una cosa: che nessun produttore vuole mettere una GPU discreta con le CPU di AMD. Tanto meno una GPU AMD che consuma un botto per non riuscire ad accelerare nulla con l'AI mancando dei tensor core.
Quindi ad AMD non resta che giocare la carta della mega super hyper iGPU che condivide la memoria di sistema per ottenere qualche punto di vantaggio nei lavori AI. Super mega iGPU che ovviamente è montata solo su 4 modelli in croce che costano un patrimonio. E più che altro usati in mini PC da prezzi ancora più assurdi marketizzati per uso AI (che barzelletta!).
Tanto per flexare i muscoli.

Gli altri, come detto, possono usare le GPU discrete e ottenere migliori prestazioni/W in tutti i contesti in cui serve il lavoro di una vera GPU moderna.


Quoto queste strix halo non hanno senso di esistere, costano più di un sistema con gpu dedicata ed hanno prestazioni poco superi ad una normale igpu consumando 80w.
Max Power27 Gennaio 2026, 14:50 #8
Originariamente inviato da: CrapaDiLegno
Intel ha perfettamente ragione
.






Originariamente inviato da: CrapaDiLegno
. Tanto meno una GPU AMD che consuma un botto per non riuscire ad accelerare nulla con l'AI mancando dei tensor core.


Capra ignorante, AMD ha rilasciato nei driver tool appositi, Intel un cazzo


Originariamente inviato da: CrapaDiLegno
.
Gli altri, come detto, possono usare le GPU discrete e ottenere migliori prestazioni/W in tutti i contesti in cui serve il lavoro di una vera GPU moderna.


L'unica a vincere è l'industria degli psicofarmaci.

E tu ne hai seriamente bisogno
Max Power27 Gennaio 2026, 14:52 #9
Originariamente inviato da: ninja750
..quando per contrastare la concorrenza uscì con il 14900k da 280w


Ecco, un po' di sana realtà per i fanatici talebani.

Ora staranno sudando sulle brochure
Max Power27 Gennaio 2026, 14:54 #10
Originariamente inviato da: Zappz
Quoto queste strix halo non hanno senso di esistere, costano più di un sistema con gpu dedicata ed hanno prestazioni poco superi ad una normale igpu consumando 80w.


Infatti Intel li regala

E ricordati di buttare nel cesso l'MB quando cambierai CPU

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^