GPU Arc: Intel si rivolge all'emulazione per i videogiochi DirectX 9

Intel ha preso la decisione di affidarsi all'emulazione delle DirectX 9 tramite il layer D3D9On12 delle API DirectX 12. Questa scelta coinvolge le nuove GPU Arc e la grafica integrata Xe dei Core di 12a generazione. L'obiettivo è concentrare risorse tecniche per ottimizzare il funzionamento delle GPU con le DirectX 11 e le librerie più moderne.
di Manolo De Agostini pubblicata il 16 Agosto 2022, alle 09:11 nel canale Schede Videogaming hardwareAlchemistIntelschede video top di gamma
Intel ha deciso di eliminare il supporto nativo alle API DirectX 9 (D3D9) sulle GPU integrate basate su architettura Xe (all'interno delle CPU Core di 12a generazione) e sulle schede video dedicate Arc Alchemist. L'azienda statunitense ha optato per ricorrere all'emulazione tramite le DirectX 12.
"Le applicazioni e i giochi basati su DirectX 9 possono ancora funzionare attraverso l'interfaccia Microsoft D3D9On12", si legge in una nota pubblicata dalla stessa Intel. "La GPU integrata sui processori Intel di 11a generazione e precedenti supporta le DirectX 9 in modo nativo, ma possono essere affiancate da schede grafiche Arc. In tal caso, è probabile che il rendering sia gestito dalla scheda e non dall'iGPU (a meno che la scheda non sia disabilitata). Pertanto, il sistema utilizzerà DX9On12 anziché DX9".
Come accennato nella nota, l'emulazione funziona grazie a un layer di conversione open source chiamato "D3D9On12", il quale mappa i comandi grafici da D3D9 a D3D12 anziché inviarli al driver grafico D3D9. Una volta che il layer D3D9On12 riceve i comandi, li converte tutti i chiamate all'API D3D12. Il passaggio dell'emulazione non è mai a costo zero ma secondo Microsoft, D3D9On12 "è cresciuto in funzionalità al punto in cui è un'implementazione completa e relativamente performante di un driver D3D9".
La scelta di Intel di passare all'emulazione è figlia della necessità di concentrare le risorse disponibili nell'ottimizzazione dei driver per le API più recenti, in particolare le DirectX 11. Abbiamo visto risultati soddisfacenti da parte delle GPU Arc con le librerie DirectX 12 e Vulkan, mentre il funzionamento con le DirectX 11 è apparso deficitario e, per stessa ammissione di Intel, richiede un'importante opera di affinamento.
Laddove AMD e NVIDIA operano nel settore del gaming da diversi decenni, l'approccio di Intel va visto come un inizio in tutto e per tutto. È vero che l'azienda opera nel settore grafico con le GPU integrate da un tempo altrettanto lungo, ma lo sforzo e le necessità di ottimizzazione sono ampiamente differenti.
La scelta di adottare l'emulazione per una API datata per concentrarsi su quelle più moderne e continuare il lavoro di ottimizzazione per le DX11 va vista quindi come il male minore in un percorso di rincorsa alla concorrenza in cui è necessario fare delle scelte, a volte anche difficili.
16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoCome sempre contano poco quei numeri ma come l’azienda è organizzata.
Ma smettiamola, pure Sony ha mollato la "Retrocompatibilità" e nemmeno un emulatore ti fornisce, le DirectX 9x anche se emulate, sono per titoli che richiedono almeno 1/6 della potenza, se un buon emulatore le emula anche al 50% delle prestazioni siamo a livelli ben superiori delle DirectX 9x su scheda nativa di quando sono uscite.
Ok le DirectX 11 fanno abbastanza pena ma solo a livello di dover essere ottimizzate, ma in teoria oggi come oggi andrebbe tutto programmato in DirectX 12 / Vulkan / OpenGL EX tutto il resto e Vecchiume, pure le DirectX 12 sono Vecchiume se si considera il tutto.
La domanda reale da farsi è.... usciranno fisicamente per il pubblico prima della serie RTX 5000 e RT 8000 e avranno un tetto massimo di costo di 389 Dollari?
Concentrano tutto sulle nuove librerie e come effetto collaterale, senza spendere un soldo, ottimizzano anche le vecchie.
Tifo per la piccola nuova arrivata Intel, tifo per più concorrenza.
Ok le DirectX 11 fanno abbastanza pena ma solo a livello di dover essere ottimizzate, ma in teoria oggi come oggi andrebbe tutto programmato in DirectX 12 / Vulkan / OpenGL EX tutto il resto e Vecchiume, pure le DirectX 12 sono Vecchiume se si considera il tutto.
La domanda reale da farsi è.... usciranno fisicamente per il pubblico prima della serie RTX 5000 e RT 8000 e avranno un tetto massimo di costo di 389 Dollari?
Ma infatti, che problema è dover andare molto meno nella maggior parte dei giochi, o di sicuro in quelli più giocati, l'importante è andare pari nel restante 10%, sempre se va bene, perché la premessa non mi pare buona.
Magari uno gioca pure su uno schermo 4K, dove, anche con giochi DX-11, di sicuro non serve una schedina per farli scorrere, quindi dovrà scendere a 1080-1440p.
Che poi parliamo pure di emulazione, come se significasse solo un po' di prestazioni in meno e zero glitch/bug.
Se questa è la concorrenza che vuoi, tienila stretta...
Ovvio che poi ognuno decide se questo compromesso gli sta bene. Se mi danno a 300 euro una scheda che va come una 3060 nei nuovi giochi ed é il 25% piú lenta nei legacy, pazienza, giocheró a Crysis a 60fps invece che a 90 e a HL2 a 400 invece che a 600 (numeri sparati a casissimo, eh
ma le iGpu 11 e 12 non erano identiche? io ricordavo così, non hanno cambiato una virgola, il nome e anche il numero dell execution unit è rimasto uguale, in attesa di rinnovare il tutto con meteor lake serie 13.
Mah, aspettiamo e vediamo...
Ho visto le prestazioni della A 380 e fanno letteralmente pena... pena.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".