Intel annuncia il Core and Visual Computing Group: Raja Koduri, ex AMD, a capo

Intel annuncia la costituzione di una nuova divisione interna, il Core and Visual Computing Group, con a capo Raja Koduri proveniente da AMD. Fine di questo nuovo gruppo interno quello di unificare le soluzioni graphics di Intel e sviluppare nuove architetture di GPU discrete, pensate tanto per i client come per il datacenter
di Paolo Corsini pubblicato il 09 Novembre 2017 nel canale Schede VideoIntelAMDRadeonNVIDIAGeForceXeon Phi
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa anche no: ripeterlo all'infinito non lo renderà vero.
No, ARM partiva da micro-architetture embedded e non s'è mai interessata a spingere l'acceleratore sulle prestazioni fino a quando non sono arrivati gli smartphone che hanno spinto molto in questa direzione.
Che non ha ancora presentato nuove micro-architetture per contrastare Ryzen.
Dunque il pepe dove starebbe?
Idem come sopra: falso. Intel ha certamente un'ottima architettura grazie a Nehalem, ma ferma non lo è stata di certo. Tutt'altro, visto che ha presentato le AVX, AVX-2, e qualche anno fa le AVX-512 (solo nel mercato server inizialmente. Sono arrivato in ambito HEDT solo di recente) che hanno rivoluzionato il concetto di SIMD (mi riferisco alle AVX-512 in particolare) e contestualmente le prestazioni.
Quando presenterà una nuova micro-architettura ne riparleremo. Al momento corse non ne vedo proprio, visto che le basta riciclare core vecchi di qualche anno, oppure semplicemente di continuare con quelli che erano in programma.
Apple ha mostrato già quello che può fare una (micro)architettura ARM votata alle prestazioni.
Ed è un design abbastanza tirato (fino a 6 istruzioni decodificate ed eseguite per ciclo di clock. Per contro Skylake è ferma a 4), per cui prevedere qualcosa di ancora più spinto prestazionalmente è abbastanza difficile.
Quindi non credo ci saranno problemi di questo tipo.
C'è da dire che Intel ha già le sue IP in ambito GPU, e non credo che vorrà buttare tutto nel cesso. Come non vorrà nemmeno farsi carico dei problemi di GCN.
Koduri (ogni volta sbaglio il nome, scusate
Nel frattempo credo che assisteremo a un po' di cambiamenti non radicali.
sono d'accordo... i 10nm che sono usciti da poco, NON sono minimamente paragonabili ai 14nm di Intel...
d'altra parte questo processo nella variante ++, ha raggiunto un tale livello di prestazione che la stessa Intel non si aspetta chissà quali miglioramenti con il passaggio ai 10 nm , se non a livello di integrazione (che cade a fagiolo per le GPU....).
Quando i concorrenti dicono che le prestazioni miglioreranno del 35% a parità di consumo con l'introduzione dei 7nm....stanno implicitamente affermando che il loro attuale processo produttivo fa "cagare" (tra virgolette, visto che solo Intel li sa fare meglio)...
I 10nm servono senz'altro per la (molto) maggiore integrazione in primis. Il resto è grasso che cola.
d'altra parte questo processo nella variante ++, ha raggiunto un tale livello di prestazione che la stessa Intel non si aspetta chissà quali miglioramenti con il passaggio ai 10 nm , se non a livello di integrazione (che cade a fagiolo per le GPU....).
Quando i concorrenti dicono che le prestazioni miglioreranno del 35% a parità di consumo con l'introduzione dei 7nm....stanno implicitamente affermando che il loro attuale processo produttivo fa "cagare" (tra virgolette, visto che solo Intel li sa fare meglio)...
Infatti e' tutta una questione di integrazione.
Il problema e' far capire ad alcuni che i transistor non funzionano grazie allo spirito santo, ma per precise leggi fisiche (quantistiche). Rimpicciolendoli oltre un certo limite, tante approssimazioni non sono piu' valide e, di conseguenza, non funziona piu' niente.
Quello che mi ha lasciato sconcertato della piattaforma X299 è stata la pasta del capitano, il taglio di linee PCI-EXPRESS e l'aumento dei prezzi.
Attualmente se AMD andasse bene nei giochi prenderei senza dubbio un Ryzen, ma vista la situazione mi tengo stretto il mio 5930K e resto alla finestra in attesa di una vera piattaforma X da parte di intel o di Ryzen 2
Quale geniale, pezzo da novanta, etc etc in giro non si legge altro.
Ha affossato amd poi l'ha lasciata, innovatore, ma di cosa? quali cambiamenti in 2 anni e mezzo? da CGN a Vega c'è il nulla, ellesmere, polaris, ma li avete visti? l'unica cosa che hanno aumentato sono gli shaders, da 2304 a 4096, e ti credo che va meglio, ma l'efficenza? nulla, da 200 a a 375 watt, e a livello software? la liberta di computazione in fp32 e fp64? l'inutilità, ci sono stati piu migliorie tra vari CGN come
il passaggio dai 2 a 4 geometry engine, o ancora meglio la svolta come ha fatto nvidia con la compressione (Delta color compression), tutte cose fatte senza "l'indispensabile" genio, è vero i soldi per la ricerca erano meno di nvidia, ma sono comunque stati indirizati male, HBM2, uno dei maggiori resbonsabili di atroci ritardi, sono state ottimizate secondo questo nuovo tipo di memoria quando radeon aveva gia tutta la banda di cuia veva bisogno anni addietro, è sempre stata avanti a nvidia rispetto a questo, perche affogari capitali e tempo in questa cosa se gia si era arrivati a quasi 400mb/s con ddr5? non erano in grado di sfruttarla al tempo, figuariamoci dopo aver investito ancora piu tempo sulla ram anziche sull'architettura, volendo con leggera ottimizzazione della ram si potevanoa arrivare ai 1500mhz, basta, invece no si è buttato in una scommessa di mercato sensa considerane la disponibilita, sono memorie che non vengono usate neanche sulle titan xp pascal, ma solo nelle schede tesla nei data center e deep learning. Io non so se sia stato un fatto di costi contratti disponibilita, ma questi anni sono stati piu che uno scontro tra amd e samsung piu che con nvidia.
2013 r9 290 320gb/s ddr5 1250mh bus 512bit
2015 r9 390 384gb/s ddr5 1500mhz bus 512bit
2015 fury 512gb/s hbm1 500mhz 4096bit
2017 483gb/sshbm2 vega 64 945mhz 2048bit (ma con 8 volte la capacita per stack)
la gtx 1080 ha 320gb/s per gestire 8gb e la 1080 ti 484g/s per gestirne ben 11!
la riprogettazione del die con memorie integrate è stato uno sforzo non da poco, ci sono riusciti, ma non ha prototto risultati
https://images.anandtech.com/doci/1...entation-15.png
In italia la fascia di prezzo della 1060 la rende una delle piu vendute, ma all'estero la n1 è la gtx 1070 per vendite e non ostante tutto vega 56 a difefrenza di vega 64 ha un rapporto accettabile qualità/consumi, e poteva veramente dar fastidio alla 1070 un anno fa, e forse con un prezzo ancora miniore se fossero rimasti a ddr5, o al max hbm1. Vega 56 avrebbe dato ossigeno in quantita, che ancora la 1070 ti non esisteva.
"ringrazio tutto il team amd" bla bla bla, "rendetemi fiero" bla bla bla, falso, ha firmato personalmete le schede vega e dopo il suo mese "sabbatico" con la famiglia è passato ad intel, ma dove sta la coerenza? glie lo ha detto la moglie di passare alla concorrenza? "se non vai ad intel non ti amo piu!" o era gia nella sua mente da tempo?
Una persona che non ha accettato la sfida a creare qualcosa di nuovo, molto piu facile rivendere la tecnologia bella e fatta di amd radeon a intel ed essere un rocco tra gli eunuchi con intel, che fare qualche piccola miglioria ma con sensata con amd. Gia era passato ad apple tempo fa e non so come lo abbiano ripreso in amd.
I cambiamnte piu grandi sono stati fatti senza di lui, come da terrascale a gcn. Amd è stata sempre in grado di rinnovarsi (a patto che non ci sia lui ovviamente) e lo fara ancora, spero solo che radeon non venga acquistata per intero da intel visto il negativo 2016 2017.
Ma ora basta, è il momento di intel 520 con hbm2,(scherso) ma scordatevi che tra una generazione di GPU intel si avvicini anche MINIMAMENTE anche solo concorrenzialemnte con prodotti meno performanit ma prezzi piu bassi a tesla v100, che è il settore dove intel vuole mettere mani.
Spero che tu rimanga capo divisione intel per altri 6 anni, cosi da ristabilie l'equlibrio di danni fatti con amd.
PS sembrava amd avesse abbandonato l'idea di hbm1 dopo l'avvento di polaris, ma sembra che questa persona abbia la capacita di evocare il male sepolto e fantasmi allo scopo di far perdere la ragione ai mortali.
Il 2016 2017 credevo fosse l'anno degli shader indipendenti dal core clock, come fece nvida dal fermi al kepler. altro che hbm! siamo matti? aumentiamo ancora la banda che andiamo a suonare...
una volta finito anche con intel andrai a fare la grafica degli ovini kinder.
scusate lo sfogo ma ho letto ieri la notizia del suo passaggio a intel e viene trattato come fosse stato quello che ha fatto i miracoli con amd radeon.
a me piace ricordarlo cosi, come l'ho visto la prima volta con quelli di linus tech nella presentazione della rx 480
https://www.youtube.com/watch?v=P2DM4iYpE28
Intel aveva già da tempo in roadmap processori a 6 core per il segmento desktop, e a 10 e 12 core quello HEDT.
Ma è stata presa in contropiede con ThreadRipper, di cui non si sapeva nulla fino a poco prima della commercializzazione di Ryzen, per cui ha dovuto portare anche gli Xeon a 14, 16, e 18 core in ambito HEDT.
Se i prezzi sono rimasti alti, ci sarebbe da chiedersi se la competizione di AMD con Ryzen abbia realmente inciso.
Generalmente cambio hardware al PC solo quando si rompe scheda madre e/o CPU, per cui mi auguro di non dover mettere mani al portafogli ancora per molto.
In ogni caso, se dovesse succedere, valuterei al solito un processore con elevate prestazioni in ST, visto che uso per lo più applicazioni di questo tipo, e mi serve ridurre il response time.
Idem per gli emulatori che uso, che prediligono processori con prestazioni elevate in ST. E a tal proposito la prossima CPU dovrà assolutamente avere le AVX-512, visto che fra le nuove istruzioni ce n'è una che consente di manipolare bitplane e implementare operazioni di bit-blitting in maniera estremamente semplice e, soprattutto, performante.
Quale geniale, pezzo da novanta, etc etc in giro non si legge altro.
Ha affossato amd poi l'ha lasciata, innovatore, ma di cosa? quali cambiamenti in 2 anni e mezzo? da CGN a Vega c'è il nulla, ellesmere, polaris, ma li avete visti? l'unica cosa che hanno aumentato sono gli shaders, da 2304 a 4096, e ti credo che va meglio, ma l'efficenza? nulla, da 200 a a 375 watt, e a livello software? la liberta di computazione in fp32 e fp64? l'inutilità, ci sono stati piu migliorie tra vari CGN come
il passaggio dai 2 a 4 geometry engine, o ancora meglio la svolta come ha fatto nvidia con la compressione (Delta color compression), tutte cose fatte senza "l'indispensabile" genio, è vero i soldi per la ricerca erano meno di nvidia, ma sono comunque stati indirizati male, HBM2, uno dei maggiori resbonsabili di atroci ritardi, sono state ottimizate secondo questo nuovo tipo di memoria quando radeon aveva gia tutta la banda di cuia veva bisogno anni addietro, è sempre stata avanti a nvidia rispetto a questo, perche affogari capitali e tempo in questa cosa se gia si era arrivati a quasi 400mb/s con ddr5? non erano in grado di sfruttarla al tempo, figuariamoci dopo aver investito ancora piu tempo sulla ram anziche sull'architettura, volendo con leggera ottimizzazione della ram si potevanoa arrivare ai 1500mhz, basta, invece no si è buttato in una scommessa di mercato sensa considerane la disponibilita, sono memorie che non vengono usate neanche sulle titan xp pascal, ma solo nelle schede tesla nei data center e deep learning. Io non so se sia stato un fatto di costi contratti disponibilita, ma questi anni sono stati piu che uno scontro tra amd e samsung piu che con nvidia.
2013 r9 290 320gb/s ddr5 1250mh bus 512bit
2015 r9 390 384gb/s ddr5 1500mhz bus 512bit
2015 fury 512gb/s hbm1 500mhz 4096bit
2017 483gb/sshbm2 vega 64 945mhz 2048bit (ma con 8 volte la capacita per stack)
la gtx 1080 ha 320gb/s per gestire 8gb e la 1080 ti 484g/s per gestirne ben 11!
la riprogettazione del die con memorie integrate è stato uno sforzo non da poco, ci sono riusciti, ma non ha prototto risultati
https://images.anandtech.com/doci/1...entation-15.png
In italia la fascia di prezzo della 1060 la rende una delle piu vendute, ma all'estero la n1 è la gtx 1070 per vendite e non ostante tutto vega 56 a difefrenza di vega 64 ha un rapporto accettabile qualità/consumi, e poteva veramente dar fastidio alla 1070 un anno fa, e forse con un prezzo ancora miniore se fossero rimasti a ddr5, o al max hbm1. Vega 56 avrebbe dato ossigeno in quantita, che ancora la 1070 ti non esisteva.
"ringrazio tutto il team amd" bla bla bla, "rendetemi fiero" bla bla bla, falso, ha firmato personalmete le schede vega e dopo il suo mese "sabbatico" con la famiglia è passato ad intel, ma dove sta la coerenza? glie lo ha detto la moglie di passare alla concorrenza? "se non vai ad intel non ti amo piu!" o era gia nella sua mente da tempo?
Una persona che non ha accettato la sfida a creare qualcosa di nuovo, molto piu facile rivendere la tecnologia bella e fatta di amd radeon a intel ed essere un rocco tra gli eunuchi con intel, che fare qualche piccola miglioria ma con sensata con amd. Gia era passato ad apple tempo fa e non so come lo abbiano ripreso in amd.
I cambiamnte piu grandi sono stati fatti senza di lui, come da terrascale a gcn. Amd è stata sempre in grado di rinnovarsi (a patto che non ci sia lui ovviamente) e lo fara ancora, spero solo che radeon non venga acquistata per intero da intel visto il negativo 2016 2017.
Ma ora basta, è il momento di intel 520 con hbm2,(scherso) ma scordatevi che tra una generazione di GPU intel si avvicini anche MINIMAMENTE anche solo concorrenzialemnte con prodotti meno performanit ma prezzi piu bassi a tesla v100, che è il settore dove intel vuole mettere mani.
Spero che tu rimanga capo divisione intel per altri 6 anni, cosi da ristabilie l'equlibrio di danni fatti con amd.
PS sembrava amd avesse abbandonato l'idea di hbm1 dopo l'avvento di polaris, ma sembra che questa persona abbia la capacita di evocare il male sepolto e fantasmi allo scopo di far perdere la ragione ai mortali.
Il 2016 2017 credevo fosse l'anno degli shader indipendenti dal core clock, come fece nvida dal fermi al kepler. altro che hbm! siamo matti? aumentiamo ancora la banda che andiamo a suonare...
una volta finito anche con intel andrai a fare la grafica degli ovini kinder.
scusate lo sfogo ma ho letto ieri la notizia del suo passaggio a intel e viene trattato come fosse stato quello che ha fatto i miracoli con amd radeon.
a me piace ricordarlo cosi, come l'ho visto la prima volta con quelli di linus tech nella presentazione della rx 480
https://www.youtube.com/watch?v=P2DM4iYpE28
Che c'entrano i 4096 sp di vega contro i 2304 di polaris? casomai confrontala con fiji, vega in certe situazioni va il doppio a parità di unità di calcolo...e polaris ormai va quasi sempre più delle 1060, non parliamo del computing dove le devasta...eh ma i consumiiiiiiiiii, il silicio purtroppo è quello che è, vedremo quello di volta e ampere ed il plot twist da maxgreen a maxpower
facciamo vega 64 (4096) e fury x (4096, stessi sp)
c'è un buon guadagno, piu del 30%, ma guarda le frequenze! si è potuti passare da 1000 a 1600 di clock, guadagno immenso ma perché sono prodotte a 14nm non 28 e scaldando meno.
tutto il lavoro di mettere la ram assieme al chip a cosa serve? a livello prestazioni? eppure quello è stato un gran lavoro... ora dirò qualcosa di paranoico, ma sui portatili dove ci sono problemi di spazio e calore questa soluzione è ottima, con un dissipatore piccolo raffreddi il tutto, stavano già pensando a questo? a soluzioni integrate ad intel? per me è l'unica cosa che ha senso, o mi sbaglio? Koduri non ha lavorato per amd.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".