Intel annuncia il Core and Visual Computing Group: Raja Koduri, ex AMD, a capo

Intel annuncia il Core and Visual Computing Group: Raja Koduri, ex AMD, a capo

Intel annuncia la costituzione di una nuova divisione interna, il Core and Visual Computing Group, con a capo Raja Koduri proveniente da AMD. Fine di questo nuovo gruppo interno quello di unificare le soluzioni graphics di Intel e sviluppare nuove architetture di GPU discrete, pensate tanto per i client come per il datacenter

di pubblicato il nel canale Schede Video
IntelAMDRadeonNVIDIAGeForceXeon Phi
 
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
cdimauro11 Novembre 2017, 11:47 #31
Sostanzialmente concordo con questo tuo ultimo commento, Legolas84.
Originariamente inviato da: Bivvoz
Intel è stato quasi ferma per 10 anni

Ma anche no: ripeterlo all'infinito non lo renderà vero.
mentre AMD era in letargo e forse è anche per questo che ARM si è fatta sotto.

No, ARM partiva da micro-architetture embedded e non s'è mai interessata a spingere l'acceleratore sulle prestazioni fino a quando non sono arrivati gli smartphone che hanno spinto molto in questa direzione.
Ma adesso in AMD sembra tornata la primavera e il disgelo a portato alla luce ryzen e rimesso il pepe in quel posto anche ad Intel.

Che non ha ancora presentato nuove micro-architetture per contrastare Ryzen.

Dunque il pepe dove starebbe?
Intel sembra aver messo su un po' di pancetta in 10 anni di sedentarietà

Idem come sopra: falso. Intel ha certamente un'ottima architettura grazie a Nehalem, ma ferma non lo è stata di certo. Tutt'altro, visto che ha presentato le AVX, AVX-2, e qualche anno fa le AVX-512 (solo nel mercato server inizialmente. Sono arrivato in ambito HEDT solo di recente) che hanno rivoluzionato il concetto di SIMD (mi riferisco alle AVX-512 in particolare) e contestualmente le prestazioni.
e nei primi giri di pista da quando AMD si è svegliata è sembrata un po' un panda che cerca di correre, ma sono sicuro che ci metterà poco a tornare in forma

Quando presenterà una nuova micro-architettura ne riparleremo. Al momento corse non ne vedo proprio, visto che le basta riciclare core vecchi di qualche anno, oppure semplicemente di continuare con quelli che erano in programma.
ARM ha corso tanto perchè è partita molto dopo, bisogna vedere se ha ancora fiato per correre e stare al passo.

Apple ha mostrato già quello che può fare una (micro)architettura ARM votata alle prestazioni.

Ed è un design abbastanza tirato (fino a 6 istruzioni decodificate ed eseguite per ciclo di clock. Per contro Skylake è ferma a 4), per cui prevedere qualcosa di ancora più spinto prestazionalmente è abbastanza difficile.
Originariamente inviato da: Legolas84
Le GPU AMD hanno bisogno di profondi cambiamenti architetturali soprattutto nell'area delle alte prestazioni. Se Intel vuole entrare nel mercato imho deve farlo con un'architettura nuova, non con l'ennesimo GCN rattoppato.

Quindi non credo ci saranno problemi di questo tipo.

C'è da dire che Intel ha già le sue IP in ambito GPU, e non credo che vorrà buttare tutto nel cesso. Come non vorrà nemmeno farsi carico dei problemi di GCN.

Koduri (ogni volta sbaglio il nome, scusate ) non può rivoluzionare tutto subito, se è questa la sua intenzione (probabilmente ha già in mente qualche idea per nuova, innovativa micro/architettura per GPU. E mi pare normale per chi lavora in quest'ambito), ma servirà tempo.

Nel frattempo credo che assisteremo a un po' di cambiamenti non radicali.
tuttodigitale11 Novembre 2017, 13:03 #32
Originariamente inviato da: cdimauro
Ma anche no: ripeterlo all'infinito non lo renderà vero.

sono d'accordo... i 10nm che sono usciti da poco, NON sono minimamente paragonabili ai 14nm di Intel...
d'altra parte questo processo nella variante ++, ha raggiunto un tale livello di prestazione che la stessa Intel non si aspetta chissà quali miglioramenti con il passaggio ai 10 nm , se non a livello di integrazione (che cade a fagiolo per le GPU....).

Quando i concorrenti dicono che le prestazioni miglioreranno del 35% a parità di consumo con l'introduzione dei 7nm....stanno implicitamente affermando che il loro attuale processo produttivo fa "cagare" (tra virgolette, visto che solo Intel li sa fare meglio)...
cdimauro11 Novembre 2017, 13:23 #33
Ma infatti non gli resta che rifugiarsi nei numeretti marchettari: 10nm, 7nm, e persino 5nm. Quando poi la realtà è MOLTO diversa, e Intel rimane ancora parecchio avanti quanto a processi produttivi.

I 10nm servono senz'altro per la (molto) maggiore integrazione in primis. Il resto è grasso che cola.
GTKM11 Novembre 2017, 13:25 #34
Originariamente inviato da: tuttodigitale
sono d'accordo... i 10nm che sono usciti da poco, NON sono minimamente paragonabili ai 14nm di Intel...
d'altra parte questo processo nella variante ++, ha raggiunto un tale livello di prestazione che la stessa Intel non si aspetta chissà quali miglioramenti con il passaggio ai 10 nm , se non a livello di integrazione (che cade a fagiolo per le GPU....).

Quando i concorrenti dicono che le prestazioni miglioreranno del 35% a parità di consumo con l'introduzione dei 7nm....stanno implicitamente affermando che il loro attuale processo produttivo fa "cagare" (tra virgolette, visto che solo Intel li sa fare meglio)...


Infatti e' tutta una questione di integrazione.

Il problema e' far capire ad alcuni che i transistor non funzionano grazie allo spirito santo, ma per precise leggi fisiche (quantistiche). Rimpicciolendoli oltre un certo limite, tante approssimazioni non sono piu' valide e, di conseguenza, non funziona piu' niente.
cdimauro11 Novembre 2017, 13:55 #35
E' competitiva, certamente. Ma non abbastanza da impensierire Intel, che ha già un'ottima micro-architettura, che continua ad affinare.
Legolas8411 Novembre 2017, 14:01 #36
Quel che è certo è che AMD recuperando l'enorme gap che aveva rispetto ai processori Core ha costretto Intel ad aprire i rubinetti e immettere sul mercato CPU che se non fosse stato per Ryzen chissà quando avremmo visto.

Quello che mi ha lasciato sconcertato della piattaforma X299 è stata la pasta del capitano, il taglio di linee PCI-EXPRESS e l'aumento dei prezzi.

Attualmente se AMD andasse bene nei giochi prenderei senza dubbio un Ryzen, ma vista la situazione mi tengo stretto il mio 5930K e resto alla finestra in attesa di una vera piattaforma X da parte di intel o di Ryzen 2
Obad-Hai11 Novembre 2017, 19:26 #37
no,
Quale geniale, pezzo da novanta, etc etc in giro non si legge altro.
Ha affossato amd poi l'ha lasciata, innovatore, ma di cosa? quali cambiamenti in 2 anni e mezzo? da CGN a Vega c'è il nulla, ellesmere, polaris, ma li avete visti? l'unica cosa che hanno aumentato sono gli shaders, da 2304 a 4096, e ti credo che va meglio, ma l'efficenza? nulla, da 200 a a 375 watt, e a livello software? la liberta di computazione in fp32 e fp64? l'inutilità, ci sono stati piu migliorie tra vari CGN come
il passaggio dai 2 a 4 geometry engine, o ancora meglio la svolta come ha fatto nvidia con la compressione (Delta color compression), tutte cose fatte senza "l'indispensabile" genio, è vero i soldi per la ricerca erano meno di nvidia, ma sono comunque stati indirizati male, HBM2, uno dei maggiori resbonsabili di atroci ritardi, sono state ottimizate secondo questo nuovo tipo di memoria quando radeon aveva gia tutta la banda di cuia veva bisogno anni addietro, è sempre stata avanti a nvidia rispetto a questo, perche affogari capitali e tempo in questa cosa se gia si era arrivati a quasi 400mb/s con ddr5? non erano in grado di sfruttarla al tempo, figuariamoci dopo aver investito ancora piu tempo sulla ram anziche sull'architettura, volendo con leggera ottimizzazione della ram si potevanoa arrivare ai 1500mhz, basta, invece no si è buttato in una scommessa di mercato sensa considerane la disponibilita, sono memorie che non vengono usate neanche sulle titan xp pascal, ma solo nelle schede tesla nei data center e deep learning. Io non so se sia stato un fatto di costi contratti disponibilita, ma questi anni sono stati piu che uno scontro tra amd e samsung piu che con nvidia.

2013 r9 290 320gb/s ddr5 1250mh bus 512bit
2015 r9 390 384gb/s ddr5 1500mhz bus 512bit
2015 fury 512gb/s hbm1 500mhz 4096bit
2017 483gb/sshbm2 vega 64 945mhz 2048bit (ma con 8 volte la capacita per stack)
la gtx 1080 ha 320gb/s per gestire 8gb e la 1080 ti 484g/s per gestirne ben 11!
la riprogettazione del die con memorie integrate è stato uno sforzo non da poco, ci sono riusciti, ma non ha prototto risultati
https://images.anandtech.com/doci/1...entation-15.png

In italia la fascia di prezzo della 1060 la rende una delle piu vendute, ma all'estero la n1 è la gtx 1070 per vendite e non ostante tutto vega 56 a difefrenza di vega 64 ha un rapporto accettabile qualità/consumi, e poteva veramente dar fastidio alla 1070 un anno fa, e forse con un prezzo ancora miniore se fossero rimasti a ddr5, o al max hbm1. Vega 56 avrebbe dato ossigeno in quantita, che ancora la 1070 ti non esisteva.

"ringrazio tutto il team amd" bla bla bla, "rendetemi fiero" bla bla bla, falso, ha firmato personalmete le schede vega e dopo il suo mese "sabbatico" con la famiglia è passato ad intel, ma dove sta la coerenza? glie lo ha detto la moglie di passare alla concorrenza? "se non vai ad intel non ti amo piu!" o era gia nella sua mente da tempo?
Una persona che non ha accettato la sfida a creare qualcosa di nuovo, molto piu facile rivendere la tecnologia bella e fatta di amd radeon a intel ed essere un rocco tra gli eunuchi con intel, che fare qualche piccola miglioria ma con sensata con amd. Gia era passato ad apple tempo fa e non so come lo abbiano ripreso in amd.
I cambiamnte piu grandi sono stati fatti senza di lui, come da terrascale a gcn. Amd è stata sempre in grado di rinnovarsi (a patto che non ci sia lui ovviamente) e lo fara ancora, spero solo che radeon non venga acquistata per intero da intel visto il negativo 2016 2017.
Ma ora basta, è il momento di intel 520 con hbm2,(scherso) ma scordatevi che tra una generazione di GPU intel si avvicini anche MINIMAMENTE anche solo concorrenzialemnte con prodotti meno performanit ma prezzi piu bassi a tesla v100, che è il settore dove intel vuole mettere mani.
Spero che tu rimanga capo divisione intel per altri 6 anni, cosi da ristabilie l'equlibrio di danni fatti con amd.

PS sembrava amd avesse abbandonato l'idea di hbm1 dopo l'avvento di polaris, ma sembra che questa persona abbia la capacita di evocare il male sepolto e fantasmi allo scopo di far perdere la ragione ai mortali.
Il 2016 2017 credevo fosse l'anno degli shader indipendenti dal core clock, come fece nvida dal fermi al kepler. altro che hbm! siamo matti? aumentiamo ancora la banda che andiamo a suonare...

una volta finito anche con intel andrai a fare la grafica degli ovini kinder.

scusate lo sfogo ma ho letto ieri la notizia del suo passaggio a intel e viene trattato come fosse stato quello che ha fatto i miracoli con amd radeon.

a me piace ricordarlo cosi, come l'ho visto la prima volta con quelli di linus tech nella presentazione della rx 480

https://www.youtube.com/watch?v=P2DM4iYpE28
cdimauro11 Novembre 2017, 21:19 #38
Originariamente inviato da: Legolas84
Quel che è certo è che AMD recuperando l'enorme gap che aveva rispetto ai processori Core ha costretto Intel ad aprire i rubinetti e immettere sul mercato CPU che se non fosse stato per Ryzen chissà quando avremmo visto.

Intel aveva già da tempo in roadmap processori a 6 core per il segmento desktop, e a 10 e 12 core quello HEDT.

Ma è stata presa in contropiede con ThreadRipper, di cui non si sapeva nulla fino a poco prima della commercializzazione di Ryzen, per cui ha dovuto portare anche gli Xeon a 14, 16, e 18 core in ambito HEDT.
Quello che mi ha lasciato sconcertato della piattaforma X299 è stata la pasta del capitano, il taglio di linee PCI-EXPRESS e l'aumento dei prezzi.

Se i prezzi sono rimasti alti, ci sarebbe da chiedersi se la competizione di AMD con Ryzen abbia realmente inciso.
Attualmente se AMD andasse bene nei giochi prenderei senza dubbio un Ryzen, ma vista la situazione mi tengo stretto il mio 5930K e resto alla finestra in attesa di una vera piattaforma X da parte di intel o di Ryzen 2

Generalmente cambio hardware al PC solo quando si rompe scheda madre e/o CPU, per cui mi auguro di non dover mettere mani al portafogli ancora per molto.

In ogni caso, se dovesse succedere, valuterei al solito un processore con elevate prestazioni in ST, visto che uso per lo più applicazioni di questo tipo, e mi serve ridurre il response time.
Idem per gli emulatori che uso, che prediligono processori con prestazioni elevate in ST. E a tal proposito la prossima CPU dovrà assolutamente avere le AVX-512, visto che fra le nuove istruzioni ce n'è una che consente di manipolare bitplane e implementare operazioni di bit-blitting in maniera estremamente semplice e, soprattutto, performante.
Gyammy8513 Novembre 2017, 10:25 #39
Originariamente inviato da: Obad-Hai
no,
Quale geniale, pezzo da novanta, etc etc in giro non si legge altro.
Ha affossato amd poi l'ha lasciata, innovatore, ma di cosa? quali cambiamenti in 2 anni e mezzo? da CGN a Vega c'è il nulla, ellesmere, polaris, ma li avete visti? l'unica cosa che hanno aumentato sono gli shaders, da 2304 a 4096, e ti credo che va meglio, ma l'efficenza? nulla, da 200 a a 375 watt, e a livello software? la liberta di computazione in fp32 e fp64? l'inutilità, ci sono stati piu migliorie tra vari CGN come
il passaggio dai 2 a 4 geometry engine, o ancora meglio la svolta come ha fatto nvidia con la compressione (Delta color compression), tutte cose fatte senza "l'indispensabile" genio, è vero i soldi per la ricerca erano meno di nvidia, ma sono comunque stati indirizati male, HBM2, uno dei maggiori resbonsabili di atroci ritardi, sono state ottimizate secondo questo nuovo tipo di memoria quando radeon aveva gia tutta la banda di cuia veva bisogno anni addietro, è sempre stata avanti a nvidia rispetto a questo, perche affogari capitali e tempo in questa cosa se gia si era arrivati a quasi 400mb/s con ddr5? non erano in grado di sfruttarla al tempo, figuariamoci dopo aver investito ancora piu tempo sulla ram anziche sull'architettura, volendo con leggera ottimizzazione della ram si potevanoa arrivare ai 1500mhz, basta, invece no si è buttato in una scommessa di mercato sensa considerane la disponibilita, sono memorie che non vengono usate neanche sulle titan xp pascal, ma solo nelle schede tesla nei data center e deep learning. Io non so se sia stato un fatto di costi contratti disponibilita, ma questi anni sono stati piu che uno scontro tra amd e samsung piu che con nvidia.

2013 r9 290 320gb/s ddr5 1250mh bus 512bit
2015 r9 390 384gb/s ddr5 1500mhz bus 512bit
2015 fury 512gb/s hbm1 500mhz 4096bit
2017 483gb/sshbm2 vega 64 945mhz 2048bit (ma con 8 volte la capacita per stack)
la gtx 1080 ha 320gb/s per gestire 8gb e la 1080 ti 484g/s per gestirne ben 11!
la riprogettazione del die con memorie integrate è stato uno sforzo non da poco, ci sono riusciti, ma non ha prototto risultati
https://images.anandtech.com/doci/1...entation-15.png

In italia la fascia di prezzo della 1060 la rende una delle piu vendute, ma all'estero la n1 è la gtx 1070 per vendite e non ostante tutto vega 56 a difefrenza di vega 64 ha un rapporto accettabile qualità/consumi, e poteva veramente dar fastidio alla 1070 un anno fa, e forse con un prezzo ancora miniore se fossero rimasti a ddr5, o al max hbm1. Vega 56 avrebbe dato ossigeno in quantita, che ancora la 1070 ti non esisteva.

"ringrazio tutto il team amd" bla bla bla, "rendetemi fiero" bla bla bla, falso, ha firmato personalmete le schede vega e dopo il suo mese "sabbatico" con la famiglia è passato ad intel, ma dove sta la coerenza? glie lo ha detto la moglie di passare alla concorrenza? "se non vai ad intel non ti amo piu!" o era gia nella sua mente da tempo?
Una persona che non ha accettato la sfida a creare qualcosa di nuovo, molto piu facile rivendere la tecnologia bella e fatta di amd radeon a intel ed essere un rocco tra gli eunuchi con intel, che fare qualche piccola miglioria ma con sensata con amd. Gia era passato ad apple tempo fa e non so come lo abbiano ripreso in amd.
I cambiamnte piu grandi sono stati fatti senza di lui, come da terrascale a gcn. Amd è stata sempre in grado di rinnovarsi (a patto che non ci sia lui ovviamente) e lo fara ancora, spero solo che radeon non venga acquistata per intero da intel visto il negativo 2016 2017.
Ma ora basta, è il momento di intel 520 con hbm2,(scherso) ma scordatevi che tra una generazione di GPU intel si avvicini anche MINIMAMENTE anche solo concorrenzialemnte con prodotti meno performanit ma prezzi piu bassi a tesla v100, che è il settore dove intel vuole mettere mani.
Spero che tu rimanga capo divisione intel per altri 6 anni, cosi da ristabilie l'equlibrio di danni fatti con amd.

PS sembrava amd avesse abbandonato l'idea di hbm1 dopo l'avvento di polaris, ma sembra che questa persona abbia la capacita di evocare il male sepolto e fantasmi allo scopo di far perdere la ragione ai mortali.
Il 2016 2017 credevo fosse l'anno degli shader indipendenti dal core clock, come fece nvida dal fermi al kepler. altro che hbm! siamo matti? aumentiamo ancora la banda che andiamo a suonare...

una volta finito anche con intel andrai a fare la grafica degli ovini kinder.

scusate lo sfogo ma ho letto ieri la notizia del suo passaggio a intel e viene trattato come fosse stato quello che ha fatto i miracoli con amd radeon.

a me piace ricordarlo cosi, come l'ho visto la prima volta con quelli di linus tech nella presentazione della rx 480

https://www.youtube.com/watch?v=P2DM4iYpE28


Che c'entrano i 4096 sp di vega contro i 2304 di polaris? casomai confrontala con fiji, vega in certe situazioni va il doppio a parità di unità di calcolo...e polaris ormai va quasi sempre più delle 1060, non parliamo del computing dove le devasta...eh ma i consumiiiiiiiiii, il silicio purtroppo è quello che è, vedremo quello di volta e ampere ed il plot twist da maxgreen a maxpower
Obad-Hai24 Novembre 2017, 18:57 #40
Si hai ragione Gyammy85 con fiji calza di piu, essendo highend, anche se sempre cgn, infatti era per paragonare gcn a vega. Effettivamente un certo miglioramento c'è, quello che volevo dire è questo:
facciamo vega 64 (4096) e fury x (4096, stessi sp)
c'è un buon guadagno, piu del 30%, ma guarda le frequenze! si è potuti passare da 1000 a 1600 di clock, guadagno immenso ma perché sono prodotte a 14nm non 28 e scaldando meno.
tutto il lavoro di mettere la ram assieme al chip a cosa serve? a livello prestazioni? eppure quello è stato un gran lavoro... ora dirò qualcosa di paranoico, ma sui portatili dove ci sono problemi di spazio e calore questa soluzione è ottima, con un dissipatore piccolo raffreddi il tutto, stavano già pensando a questo? a soluzioni integrate ad intel? per me è l'unica cosa che ha senso, o mi sbaglio? Koduri non ha lavorato per amd.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^