Intel annuncia il Core and Visual Computing Group: Raja Koduri, ex AMD, a capo

Intel annuncia la costituzione di una nuova divisione interna, il Core and Visual Computing Group, con a capo Raja Koduri proveniente da AMD. Fine di questo nuovo gruppo interno quello di unificare le soluzioni graphics di Intel e sviluppare nuove architetture di GPU discrete, pensate tanto per i client come per il datacenter
di Paolo Corsini pubblicato il 09 Novembre 2017 nel canale Schede VideoIntelAMDRadeonNVIDIAGeForceXeon Phi
Un cambiamento epocale per Intel
Nel settore della tecnologia gli annunci di nuovi prodotti e soluzioni si susseguono incessantemente ogni giorno: in alcuni casi si tratta di novità significative e importanti, mentre in altri molto spesso ci si ritrova con annunci clone di precedenti, con prodotti che sono fotocopia più o meno sbiadita di quanto è già in commercio.
Ci sono poi alcune eccezioni, come quello che è avvenuto negli ultimi 3 giorni e che vede su posizioni differenti Intel e AMD coinvolte in un filo che prima le unisce, poi le divide. Nella giornata di lunedì le due aziende hanno annunciato una importante collaborazione che porterà al debutto nel corso del 2018 di processori Intel Core di ottava generazione dotati di GPU AMD Radeon con architettura Vega di tipo semi-custom installata sullo stesso package del processore.
Martedì è stata la volta dell'uscita da AMD di Raja Koduri, CTO per la parte graphics dell'azienda americana e a capo del Radeon Technologies Group. Koduri era in un periodo di cosiddetto sabbatico, iniziato verso la fine del mese di settembre e destinato a terminare all'inizio del mese di dicembre. La sua possibile uscita da AMD era tra le eventualità che erano state contemplate dopo l'annuncio del suo stop temporaneo dall'operatività in azienda, ma non valutata come la più probabile.
Arriviamo al terzo annuncio della serata di ieri, che di fatto è composto da due notizie separate per quanto molto legate. La prima è l'ingresso ufficiale di Raja Koduri in Intel, mossa decisamente a sorpresa soprattutto considerando la vicinanza temporale con il suo abbandono di AMD, con il ruolo di chief architect e senior vice president del nuovo gruppo interno di Intel chiamato Core and Visual Computing Group.
Intel annuncia il Core and Visual Computing Group, con Raja Koduri a capo
Il secondo annuncio è proprio quello della costituzione di un nuovo gruppo in Intel, Core and Visual Computing Group, che dal nome è destinato a occuparsi di tutto quello che è lo sviluppo legato al visual computing. Il ruolo di Koduri e di questo nuovo gruppo interno in Intel sono ben spiegati con questa frase del comunicato stampa ufficiale:
In this position, Koduri will expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions for a broad range of computing segments.
Compito di Koduri e del nuovo gruppo è quello di incrementare la posizione di Intel nel settore delle soluzioni grafiche per il mondo PC, nel quale detiene la quota di mercato principale grazie alle GPU integrate all'interno delle proprie CPU per sistemi desktop e mobile. Per ottenere questo risultato Koduri è chiamato ad operare anche nello sviluppo di GPU discrete di classe high-end, destinate a differenti ambiti di elaborazione e utilizzo.
Ecco la vera notizia, che è destinata a cambiare molti equilibri nel settore. Koduri entra in Intel con una posizione di rilievo e un compito a dir poco ambizioso, quello di sviluppare GPU discrete di fascia alta che l'azienda utilizzerà in prodotti destinati a differenti tipologie di elaborazioni. L'obiettivo di Intel è quindi quello di entrare nel mercato delle GPU discrete di fascia più alta, settore nel quale ha cercato di guadagnare spazio nello scorso decennio con il progetto Larrabee che è stato in seguito convertito nelle architetture Xeon Phi per datacenter che conosciamo al momento attuale.
Sviluppare GPU Intel discrete di fascia alta, destinate a differenti tipologie di elaborazione
Il settore della grafica ad elevate prestazioni, e le GPU che sono capaci delle maggiori potenze di elaborazione, era un tempo territorio unicamente dedicato ad applicazioni grafiche di tipo videoludico o professionale. Nel corso degli ultimi anni l'ambito di utilizzo delle GPU è notevolmente cambiato: alle pure applicazioni grafiche, sempre più esigenti, troviamo affiancati ora scenari nei quali i chip video vengono utilizzati per calcoli paralleli. Possiamo sintetizzare tutto questo con il termine di GPU Computing, a identificare quell'ambito che vede le GPU utilizzate come acceleratori per elaborazioni estremamente esigenti per via delle migliori prestazioni che permettono di ottenere rispetto alle tradizionali CPU. Più recentemente abbiamo parlato di VR, AR e IA: realtà virtuale, realtà aumentata e soprattutto intelligenza artificiale sono ambiti nei quali le GPU risultano essere un elemento fondamentale per l'elaborazione.
NVIDIA e AMD sono da molti anni presenti in questi mercati, ed Intel vuole entrarvi in modo diretto. Tutto questo richiede non solo la formazione di una divisione interna e un leader come Koduri forte di una conoscenza del mercato completa e di una capacità di sviluppo tecnologico di assoluto livello, ma anche grossi investimenti e ovviamente tempo. L'impegno economico non crediamo potrà rappresentare un problema per Intel, azienda che per volume complessivo e per risorse può permettersi di investire in questo scenario molto più rapidamente di altre. Il tempo potrebbe rappresentare un ostacolo: difficile infatti ipotizzare che Intel possa proporre una nuova architettura di GPU, a prescindere dalle capacità di calcolo che questa potrà offrire al debutto rispetto alla concorrenza, prima di almeno 3 anni. Più probabile che il periodo si allunghi di almeno 1 altro anno: queste sono indicativamente le tempistiche di NVIDIA e AMD nello sviluppo di nuove architetture GPU, dalla loro iniziale definizione alla commercializzazione nei primi prodotti destinati ai clienti.
Nel nostro ragionamento ipotizziamo che Intel non abbia nulla in lavorazione da tempo al proprio interno nel settore graphics, ma che l'ingresso di Koduri rappresenti una sorte di punto di partenza. Se così non fosse si possono anche ipotizzare tempi più ravvicinati, magari servendosi quale punto di partenza dell'attuale architettura di GPU che Intel implementa all'interno dei propri processori della famiglia Core.
Il comunicato stampa Intel aiuta a raccogliere qualche informazione ulteriore sulla direzione che Intel vuole intraprendere con le soluzioni sviluppate dalla nuova divisione interna Cores and Visual Computing Group.
Billions of users today enjoy computing experiences powered by Intel’s leading cores and visual computing IP. Going forward under Koduri’s leadership, the company will unify and expand differentiated IP across computing, graphics, media, imaging and machine intelligence capabilities for the client and data center segments, artificial intelligence, and emerging opportunities like edge computing
Intle intende unificare le proprie proprietà intellettuali, attuali e di futuro sviluppo, legate alla parte visual espandendone l'utilizzo nei settori del computing, della grafica, dei media, dell'imaging e del machine intelligence (o detto in altro modo dell'intelligenza artificiale) tanto per i client, cioè per i sistemi destinati agli utenti finali consumer e professionali, come per i data center. Di rilievo anche il riferimento all'edge computing, cioè alla miriade di dispositivi di Internet of Things che nell'ottica di Intel necessiteranno di capacità di elaborazione anche grafica.
L'annuncio di Intel è destinato a cambiare il mercato, per quanto questo richiederà sicuramente un periodo di tempo lungo prima che si possa vedere una nuova architettura di GPU da parte dell'azienda americana. AMD ne sarà sicuramente influenzata, per quanto l'accordo annunciato nei giorni scorsi lasci immaginare che il rapporto tra le due aziende sia al momento su piani ben più amichevoli e di collaborazione di quanto non lo sia mai stato in passato.
Quali saranno le ripercussioni per AMD e NVIDIA?
Un possibile scenario futuro, del quale del resto tra addetti ai lavori si è vociferato da tempo, vede Intel interessata ad acquistare il Radeon Technologies Group di AMD: è il team del quale Koduri era a capo sino a poco fa e che permetterebbe a Intel di accelerare radicalmente il proprio ingresso nel mondo delle soluzioni grafiche ad elevate prestazioni. Uno scenario futuristico e difficilmente realizzabile? Sicuramente, anche senza entrare nelle scontate considerazioni legate alle posizioni dominante e alla legislazione a questo legata, ma che rimane interessante da valutare e da tenere in sottofondo quale possibile evoluzione futura.
E' però a NVIDIA che guardiamo con una certa curiosità: l'azienda è stata capace in questi anni di sviluppare una posizione dominante nel settore delle GPU di fascia più alta con una buona competizione posta da AMD nel segmento graphics legato al mondo dei videogiochi (GeForce vs Radeon) ma di fatto con una quota di mercato vicina al 100% in quello delle applicazioni grafiche professionali e degli ambiti di utilizzo di GPU computing. La brillante intuizione di NVIDIA di investire nello sviluppo di GPU che potessero adattarsi a differenti ambiti di elaborazione, soprattutto quelli non grafici, è stata vincente e l'abbinamento con il proprio ecosistema che vede CUDA al centro ha reso queste proposte uno standard di fatto e permesso a NVIDIA di beneficiare di risultati di mercato solidi e crescenti nel corso del tempo.
In questi ultimi anni NVIDIA è entrata direttamente nel lucrativo mercato delle soluzioni per datacenter, storicamente territorio presidiato da Intel con le proprie soluzioni. Il nuovo focus verso le architetture di GPU punta a ribilanciare questo mercato e a limitare, per certi versi, l'espansione commerciale di NVIDIA.
Intel appare molto seria e convinta in questa discesa nel settore delle GPU discrete: è questo del resto un ambito, per evoluzione tecnologica, che è molto più nelle corde dell'azienda americana rispetto a tanti altri nei quali Intel ha cercato successo senza gran risultato nel corso degli ultimi anni. Quale ne sarà il risultato, in termini di prodotti e tecnologie, lo vedremo solo nel corso dei prossimi anni ma non fatichiamo a immaginare come i distinti annunci di questi giorni siano destinati a cambiare gli scenari futuri: di quanto lo vedremo strada facendo.
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoAvevo ragione
Ieri lo avevo anticipatoMa...
Non sono molto contento perché secondo me verrà a mancare concorrenza tra AMD e Intel. Se hanno già accordi per fare un processore Intel con GPU AMD...Non vorrei facessero un cartello...
Non vorrei facessero un cartello...
In un regime di duopolio (come è quello attuale) la concorrenza non esiste... Con l'ascesa di Intel nel mercato delle soluzioni grafiche discrete c'è la possibilità che si instauri un regime di concorrenza reale
Sicuramente quando uscira' mi faro' una nuova workstation
Quello è per server e va bene, ma forse manco per tutti perché i core singoli comunque non sono potenti come i core x86.
Hai una capacità di calcolo complessiva simile ma quando di capita un qualcosa di troppo sequenziale la differenza si potrebbe sentire.
E poi fino a quando non si vedono le prestazioni come si fa a sapere se è buono?
Sono comunque 120W di TDP mica noccioline.
Come era chiaro a chi non si fa infinocchiare dalle leggende ARM non consuma magicamente meno di x86, semplicemente è possibile fare core minuscoli che consumano poco ideali per smartphone e cose del genere mentre con x86 non riesci a farlo.
Ma quando serve potenza ARM scalda tanto quanto x86.
Ciao, premesso che quello che dici secondo me è sostanzialmente vero, io credo che invece la rivoluzione avverrà dal basso. Ho avuto un paio di portatili ARM e devo dire che le prestazioni erano soddisfacenti per un uso home. Ora che sono passato ad un celeron quad x86 non vedo differenze se non che la batteria dura leggermente meno.
Penso che con il passare del tempo l'architettura ARM si evolverà per permettere il raggiungimento di prestazioni migliori, così come è stato al contrario per Intel che ha fatto evolvere la sua architettura per contenere i consumi. Sicuramente però mancano diversi anni prima di vedere workstation con procio ARM...
Il mercato delle schede grafiche discrete è in costante calo, quindi mi aspetto che si concentrino sulla fascia alta del mercato che è stato il loro punto debbole finora.
Chiaro che ARM si evolverà verso l'alto ma evolvendosi verso l'alto consumerà di più proprio come x86 e non ci sarà grossa differenza.
Cioè ARM desktop/workstation non sarà una rivoluzione come molti credono, sarà solo un'alternativa che comunque sarà un piccola rivoluzione dopo 30 anni di dominio x86.
Si si uso home inteso proprio così, così come è ovvio che consumeranno di più. Non credo che qualcuno si aspetti un concorrente degli i7 in 5 watt di consumo...
Certo un mercato più libero non può che fare bene.
Il problema del gaming sono i giochi stessi che sono scritti per x86 e Nvidia non può farci molto.
Chi può fare molto invece sono Microsoft e in piccola parte Sony che potrebbero spingere ARM sulle console e MS su windows store.
A questo punto potrebbe anche proporsi Nvidia per i soc delle console.
Ma parliamo di un trasferimento su ARM di tutto il mercato videoludico, ci vorranno 10 anni minimo.
10 anni se AMD ed Intel stanno fermi a vivere di rendita.
Come si evolverannoi SOC Arm si evolveranno anche quelli x86, e considerando l'esperienza enorme che AMD ed Intel hanno accumulato nel segmento videoludico puoi star certo che non saranno facilmente scalzate.
Ps una consolle ha bisogno di avere una potenza non indifferente, e bisognerebbe per prima cosa creare un soc Arm da 45/70w per stare al passo con x86. E non mi sembra che ce ne siano all'orizone ( soc da 8/12 core max)
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".