Arrow Lake 200S: Intel conferma i problemi di latenza che rallentano gli SSD M.2

Intel ha confermato che alcuni problemi di latenza affliggono i processori della serie Core Ultra 200S causando rallentamenti degli SSD NVMe M.2 PCIe Gen5. La società ha rivelato che la causa risiede nella progettazione del chiplet e non può essere risolta tramite aggiornamento
di Vittorio Rienzo pubblicata il 08 Maggio 2025, alle 18:22 nel canale ProcessoriIntelCoreArrow Lakegaming hardware
Ancora problemi per l'ultima serie di CPU desktop di Intel. Da un'analisi condotta da The SSD review, sito specializzato nei supporti di archiviazione, è emerso che, quando installati su una scheda madre con chipset Z890, la bandwidth degli SSD PCIe 5.0 viene fortemente limitata.
Per l'analisi sono stati utilizzati due SSD ad alte prestazioni, in particolare il Samsung 9100 Pro e il Micron 4600. Ambedue i drive possono raggiungere velocità di lettura sequenziale fino a 14.000 MB/s, ma quando installati su una scheda madre con il suddetto chipset, la larghezza di banda viene limitata a 12.000 MB/s.
Gli stessi drive sono poi stati testati su una scheda madre Z790, con socket LGA1700 e quindi compatibile con i processori Intel Core di 12a, 13a e 14a generazione. Paradossalmente, con chipset e processori di generazioni precedenti, la velocità massima è stata di 14.300 MB/s per entrambi gli SSD.
In una prima fase si era pensato che il problema potesse derivare dalle schede madri stesse, ma sia ASUS che ASRock hanno replicato i risultati confermando che il problema risiede nella latenza dell'I/O Extender, uno dei componenti del nuovo design chiplet introdotto dai Intel proprio con le CPU Arrow Lake serie 200S.
Alla fine, è stata la stessa Intel a confermare il problema, spiegando che deriva dalla variazione del percorso dati all'interno dei chip Arrow Lake. Sarebbero, infatti, le quattro linee PCIe dedicate ai supporti di archiviazione a introdurre una latenza maggiore rispetto alla precedente generazione di CPU.
"Intel conferma che le linee PCIe da 21 a 24 PCIe Gen5 dei processori Intel Core Ultra 200S potrebbero presentare latenze maggiori rispetto alle linee PCIe da 1 a 16, a causa di un percorso die-to-die più lungo. Tuttavia, eventuali variazioni dipendono dal carico di lavoro specifico e dalle capacità del dispositivo endpoint PCIe".
Chiaramente, questo significa che il problema nasce da un limite fisico del chip e non può essere risolto attraverso un aggiornamento firmware, ma solo con una riprogettazione della "Tile", ovvero del cosiddetto I/O Extender.
Questo rappresenta il secondo problema significativo dei nuovi processori Arrow Lake rispetto alle precedenti iterazioni. Dalla nostra recensione del Core Ultra 285K, infatti, è emerso che le prestazioni di gioco sono notevolmente inferiori rispetto al corrispettivo di precedente generazione, il Core i9-14900K. Intel ha anche rilasciato diversi aggiornamenti del firmware, ma non sono bastati a compensare il gap con le CPU di quattordicesima generazione.
Insomma, il passaggio da un design monolitico a quello chiplet si è rivelato tutt'altro che indolore. Dal punto di vista delle prestazioni le nuove CPU sembrano aver subito un regresso rispetto alle generazioni precedenti e, per quanto il team di sviluppo del firmware abbia nuove sfide da affrontare, superarle esclusivamente con il software è chiaramente impossibile.
Non rimane che attendere la prossima generazione di CPU, nella speranza che Intel lavorerà alla risoluzione dei problemi emersi con questa prima iterazione desktop del design chiplet e, magari, offrire finalmente quel salto generazionale che ci saremmo aspettati con la gamma Arrow Lake.
17 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoil ribasso di 100$ lo hanno fatto ieri
Certo che Intel non me imbrocca mezza, ultimamente...
Insomma, il passaggio da un design monolitico a quello chiplet si è rivelato tutt'altro che indolore. Dal punto di vista delle prestazioni le nuove CPU sembrano aver subito un regresso rispetto alle generazioni precedenti e, per quanto il team di sviluppo del firmware abbia nuove sfide da affrontare, superarle esclusivamente con il software è chiaramente impossibile.
Sto meme però è diventato virale che se ne è persa completamente il significato reale.
Le prestazioni del 285K vs 14900K in una configurazione in cui si usa la più potente scheda grafica da 3000 euro e una risoluzione FullHD risultano leggermente inferiori. Peccato solo che il 285K consumi la metà, cosa che nessuno mai dice.
Altra cosa, X3D a parte (di cui l'unica versione sensata è la 9800X3D, le versioni 9900X3D e 9950X3D sono completamente inutili perché costosissime per giocare e con 0 vantaggi per i tutto ciò che non è gioco rispetto alle versioni lisce), il 285K va quanto il 9950X nei giochi. Nessuno però ha detto "che schifo il 9950X".
Con carichi leggeri poi i processori Intel consumano molto meno di quelli AMD. E siccome non usiamo i nostri PC a casa per fare rendering 24/24 e non facciamo solo conversioni video, negli altri tipi di produzione, come scrivere un testo o codice, o usare un programma di grafica raster o vettoriale, un CAD o archiviare foto, i carichi sono veramente bassi.
Ormai sembra che tutto sia isteria. Se perdi 1% sei unammerda. Se riesci a strappare il 2% in più sei l'eroe de secolo. Per farlo (o avere una barra che lo mostri) si usano test e impostazioni completamente irreali, o che sono applicate solo da una minima parte della popolazione. Mi piacerebbe sapere chi usa una 5090 da tremila euro e gioca a 1920x1080.
Consumare la metà fa niente, nonostante per secoli si è andato a rompere i maroni sul fatto che le CPU Intel consumassero l'infinito (letteralmente, con le impostazioni del limitatore dei produttori di MB impostato di default a 4096W).
La verità è che la prima architettura multi chiplet di Intel nonostante non sia perfetta è molto concorrenziale. La sua unica pecca (per Intel) è che è prodotta interamente da TMSC.
Se riuscisse a fare tutto in casa con le prossime versioni sarebbe davvero una carta che potrebbe rimetterli in piedi dopo la debacle dei 10nm.
Ma questo passa dall'avere fonderie con PP decente.
L'isteria è fare il cherry picking su situazioni del tutto opinabili.
La vera realtà è che il malefico atteggiamento anti-consumatore di Intel, che non si riesce a sradicare.
Hanno fatto tutto da soli, è inutile che stai qui a fare la punta al cazzo.
Ricordiamoci sempre lo specchietto retrovisore
Se non fai rendering pesante o conversioni video non compri un 285k o un 9950X... che senso ha il tuo discorso?
Se giochi prendi il 9800X3D se vuoi il top e una ottima resa per il futuro, altrimenti se ti accontenti c'è 265k.
Il 285k va come il 9950X nei giochi e mediamente di meno nel resto con il 50% in più di core, condisci tutto con il fatto che in qualche edge case è più lento del suo predecessore e capirai perchè fa schifo.
Le prestazioni del 285K vs 14900K in una configurazione in cui si usa la più potente scheda grafica da 3000 euro e una risoluzione FullHD risultano leggermente inferiori. Peccato solo che il 285K consumi la metà, cosa che nessuno mai dice.
Se si vogliono determinati risultati, Arrow consuma si meno di Raptor, ma 50W su 400W, non certamente la metà. Io il 9950X lo posso portare anche a 45W di consumo massimo (quasi 1/5 rispetto ai 200W def), ma questo non vuole certamente dire che performerà uguale.
Forse non ti è chiaro a cosa serva un 9950X3D.
In poche parole, chi gioca e basta, si fa un 9800X3D, chi lavora di MT e basta si prende un 9950X, chi invece gioca e lavora di MT, o si fa un 9950X3D, oppure si compra 2 sistemi, uno con il 9800X3D e l'altro con il 9950X.
Direi che spendere 200€ in più per un 9950X3D vs 9800X3D a me non pare azzeccato il termine "costosissimo", anche perchè il 9950X3D ha un prezzo nettamente migliore vs 9800X3D in quanto costa circa +50% in più del 9800X3D con il +100% di core (= prezzo a core nettamente inferiore), oltre ad avere il chiplet non 3D con 8 core tutti garantiti per 5,7GHz, 200MHz o 300MHz in più del 9800X3D.
Il consumo/prestazioni lo si è SEMPRE valutato nel carico massimo, dove Intel è sempre perdente.
Lo sai perchè? Semplicemente perchè con carichi minimi, mettiamo anche super-ottimizzati per Intel per i suoi core E, magari Intel consuma meno, ma 1W in meno su 30W... e questo non frega una mazza a nessuno, perchè tra HD/monitor e quant'altro, che valore ha consumare 50W vs 51W?
A massimo carico conta eccome, perchè esempio il 285K per fare 46.000 a CB23 necessita di 350W, mentre il mio 9950X, per quel risultato, gli bastano 250W... e +100W su 250W sono percettibilissimi.
Il discorso non è se uno fa rendering 24h su 24... ma se uno si prende un 285K/9950/14900K, presumerei che ALMENO 1 volta alla settimana avrà un carico MT di 1h (altrimenti è meglio comprarsi un X8 mobile da 25W).
Se la differenza per carichi bassi fosse anche di -1W a favore di Intel, ci vorrebbero 100h di utilizzo per compensare i +100W di 1h in carico MT.
Tradotto... 100h/8=12,5 giorni lavorativi... per arrivare a uguagliare 1h di utilizzo MT... che mettendolo in cifre sarebbe 2h di carico MT/mese per arrivare alla stessa efficienza di 25 giorni di utilizzo 8h/giorno di carico medio/basso. Efficienza super di Intel Arrow, core E e 3nm TSMC
Consumare la metà fa niente, nonostante per secoli si è andato a rompere i maroni sul fatto che le CPU Intel consumassero l'infinito (letteralmente, con le impostazioni del limitatore dei produttori di MB impostato di default a 4096W).
La verità è che la prima architettura multi chiplet di Intel nonostante non sia perfetta è molto concorrenziale. La sua unica pecca (per Intel) è che è prodotta interamente da TMSC.
Se riuscisse a fare tutto in casa con le prossime versioni sarebbe davvero una carta che potrebbe rimetterli in piedi dopo la debacle dei 10nm.
Ma questo passa dall'avere fonderie con PP decente.
Totalmente d'accordo su Arrow... il giudizio è troppo penalizzante.
Però la colpa non è certamente dell'utente.
Dopo 5 anni in cui Intel annunciava Silicio the best e una sfilza di architetture da ieri fino alla fine del mondo, ritrovarsi un Arrow 3nm TSMC che non supera un Zen5 4nm TSMC, che arriva ad un -5% gli FPS di un 14900K solamente se spendi 400€ di DDR5 8000+, venduto su un socket nato morto...
Trovami 1 motivo, 1 di numero, perchè uno dovrebbe acquistare una Z890 + Arrow anzichè una AM5 + Zen5.
Te lo do io il motivo: se il soggetto è un Nvidiaro, ma di quelli belli ignoranti.
Quelli, non sanno nemmeno che Intel gli ha fatto le scarpe col mancato rilascio delle licenze per la produzione dei chipset dopo che Huang aveva speso un capitale per l'acquisito ULI.
E quindi, guidati dalla loro innata ignoranza, vanno contro AMD, sempre e comunque.
Ma stai sereno, per quella gente ci saranno sempre brochure e slide colorate
Dopo una vita passata con Intel,ho 3 PC AMD e un notebook con core i3 basico che non accendo da un annetto o più.
Mi sa che mangi Bu (Lip tan) dovrà impegnarsi tanto
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".