Intel annuncia il Core and Visual Computing Group: Raja Koduri, ex AMD, a capo

Intel annuncia il Core and Visual Computing Group: Raja Koduri, ex AMD, a capo

Intel annuncia la costituzione di una nuova divisione interna, il Core and Visual Computing Group, con a capo Raja Koduri proveniente da AMD. Fine di questo nuovo gruppo interno quello di unificare le soluzioni graphics di Intel e sviluppare nuove architetture di GPU discrete, pensate tanto per i client come per il datacenter

di pubblicato il nel canale Schede Video
IntelAMDRadeonNVIDIAGeForceXeon Phi
 
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Legolas8409 Novembre 2017, 19:07 #11
Queste sono notizie che fanno moooooolto piacere.

Spero che intel non ci metta troppo a sviluppare una sua GPU perchè imho è una delle poche aziende che potrebbe rivaleggiare alla pari con NVIDIA in questo campo e quindi dare nuovi stimoli al mercato.

Sono anche curioso di vedere cosa succederà in futuro. Questa volta raja ha alle spalle un'azienda solida e con un capitale notevole, quindi ulteriori fail non sono contemplabili; se è così brillante come tutti speriamo ora potrà dimostrarlo.

Rimane da vedere cosa farà AMD che oltre ad avere un capitale ridotto rispetto alla concorrenza ora deve anche rimpiazzare Raja.... e considerando che sul lato CPU finalmente se la sta cavando decentemente magari potrebbe davvero vendere il RTG (ATi) ad Intel che con le sue possibilità di investimento potrebbe davvero finalmente riuscire a impensierire NVIDIA.....

imho ne vedremo delle belle!
tuttodigitale09 Novembre 2017, 19:42 #12
Originariamente inviato da: Legolas84
Sono anche curioso di vedere cosa succederà in futuro. Questa volta raja ha alle spalle un'azienda solida e con un capitale notevole, quindi ulteriori fail non sono contemplabili; se è così brillante come tutti speriamo ora potrà dimostrarlo.

Per quanto può essere in gamba, devi tener presente anche del punto di partenza.
il vantaggio di avere un prodotto Intel, sta anche nei volumi di vendita che può generare...questo vuol dire che gli sviluppatori saranno più propensi a sviluppare prodotti in grado di sfruttare architetture moderne (ogni riferimento a VEGA è puramente casuale )
lucusta09 Novembre 2017, 21:03 #13
al di là del consumo, prendendo l'equivalenza prestazionale che dichiara qualcomm per il suo 48 core contro il 28 core Intel a 2.5Ghz, viene fuori che un core ARM è competitivo a fattore 1.7 su un core skylake Intel a 2.5ghz, ossia che equivale ad uno skylake a 1.5ghz.
se ne avessero avuto effettivamente la possibilità aumentavano il TDP da 120 a 205W, come lo xeon 8180, ossia 1.7 volte piu' alto... purtroppo pero' i PP degli ultmi anni hanno golden spot molto ristretti in frequenza, quindi pur aumentando il TDP di 1.7 volte non avrebbero ottenuto che un 1.3 di prestazioni in più, ossia fare un processore comunque con le stesse prestazioni, ma piu' piccolo con 36 core (nulla si puo' dire se piu' economico, perchè la resa ha il suo bel peso e un chip da 300mm^2 ad elevata frequenza non ha ottime rese).

proiettando sul mondo consumer di oggi, con i software che ci sono, è una prestazione assai blanda, anche consumando una miseria.
puoi usarne 16, di core ARM, tali da egualiare le prestazioni di un quad intel ad oltre 4.5Ghz in multi thread, ma quando avvii il tuo giochino preferito, con la tua schedina video della marca preferita, ti accorgi che è un solo core che lavora intensamente e pesantemente, e se non hai frequenza non sfrutti la potenza di quella GPU.
diversamente i BD AMD avrebbero fatto faville, anche non avendo SMT ed essendo CMS.
quindi ARM su desktop consumer, possono stare a malapena su box office.
fraussantin10 Novembre 2017, 08:12 #14
Originariamente inviato da: Legolas84
Queste sono notizie che fanno moooooolto piacere.

Spero che intel non ci metta troppo a sviluppare una sua GPU perchè imho è una delle poche aziende che potrebbe rivaleggiare alla pari con NVIDIA in questo campo e quindi dare nuovi stimoli al mercato.

Sono anche curioso di vedere cosa succederà in futuro. Questa volta raja ha alle spalle un'azienda solida e con un capitale notevole, quindi ulteriori fail non sono contemplabili; se è così brillante come tutti speriamo ora potrà dimostrarlo.

Rimane da vedere cosa farà AMD che oltre ad avere un capitale ridotto rispetto alla concorrenza ora deve anche rimpiazzare Raja.... e considerando che sul lato CPU finalmente se la sta cavando decentemente magari potrebbe davvero vendere il RTG (ATi) ad Intel che con le sue possibilità di investimento potrebbe davvero finalmente riuscire a impensierire NVIDIA.....

imho ne vedremo delle belle!


L'unica cosa certa è che intel eccetto che forse in un primo momento non giocherà a ribassare il prezzo.

Non lo ha mai fatto e non lo farà mai.

Inoltre investire tutto in un botto per arrivare a pareggiare quello che nvidia ha fatto un un decennio richiede grandi investimenti che poi dovranno uscire dal conto.

Secondo me alla fine intel vuole raji per creare un bel chip da Infilare nelle cpu o nei soc mobili e forse uno dedicato per portatili. Stop.

O forse semplicemente vuole SOLO uno in gamba per adattare il chip amd alle sue cpu e scrivere un driver. Chi meglio del creatore? E tutto il resto e fakenews
CrapaDiLegno10 Novembre 2017, 08:35 #15
E ora so' caxxi amari per tutti e... è Koduri? Ah, no, allora no.
CrapaDiLegno10 Novembre 2017, 08:38 #16
puoi usarne 16, di core ARM, tali da egualiare le prestazioni di un quad intel ad oltre 4.5Ghz in multi thread, ma quando avvii il tuo giochino preferito, con la tua schedina video della marca preferita, ti accorgi che è un solo core che lavora intensamente e pesantemente, e se non hai frequenza non sfrutti la potenza di quella GPU.

Paragone perfetto.. core per server a bassa frequenza e basso consumo vs core per desktop tirati al massimo.
Yeah, tu si che ne sai!
Alekx10 Novembre 2017, 08:50 #17
Il passaggio di Raja potrebbe far parte dell'accordo per la fornitura di GPU discrete ad intel speriamo solo che stavolta AMD ne tiri fuori soldi da investire per il futuro.
Piedone111310 Novembre 2017, 10:31 #18
Originariamente inviato da: CrapaDiLegno
Paragone perfetto.. core per server a bassa frequenza e basso consumo vs core per desktop tirati al massimo.
Yeah, tu si che ne sai!


https://ark.intel.com/products/99978/Intel-Xeon-Processor-E3-1285-v6-8M-Cache-4_10-GHz

Onestamente non mi sembra ne tirato al max ne esoso di consumi.
Lo puoi usare per server economici, per workstation ed anche per gamemachine.
Se poi credi che Arm sia il Santo Graal dovrai ricrederti.
CrapaDiLegno10 Novembre 2017, 11:15 #19
Il confronto era fatto rispetto ad un processore da gioco da 4.5GHz.
IL paragone non regge, perché l'ambito per cui il core ARM di Qualcomm è stato pensato non è quello di far girare un motore grafico monocore.

Nessuno crede che ARM sia il Santo Graal, ma è anche vero che il mercato non è fatto di i7-7700K o simili, anzi, se hai letto le ultime trimestrali di Intel, quel tipo di mercato è in diminuzione da qualche annetto.

Quindi se credi che avere un i7 che spacca i cu1i ai passeri nei videogame sia avere vita facile, mi sa che dovrai ricrederti.
Piedone111310 Novembre 2017, 12:01 #20
Originariamente inviato da: CrapaDiLegno
Il confronto era fatto rispetto ad un processore da gioco da 4.5GHz.
IL paragone non regge, perché l'ambito per cui il core ARM di Qualcomm è stato pensato non è quello di far girare un motore grafico monocore.

Nessuno crede che ARM sia il Santo Graal, ma è anche vero che il mercato non è fatto di i7-7700K o simili, anzi, se hai letto le ultime trimestrali di Intel, quel tipo di mercato è in diminuzione da qualche annetto.

Quindi se credi che avere un i7 che spacca i cu1i ai passeri nei videogame sia avere vita facile, mi sa che dovrai ricrederti.


Perchè l'ambito per il quale è stato pensato lo xeon da me postato è il Videogame monocore?
La situazione odierna ( e del prossimo futuro) è:
Per applicazioni fortemente mt con medio-alto carico a parità di consumo effettivo di elaborazione della cpu l'architettura arm è oltre il 30% meno efficiente che x86.
Su carichi ST è un ecatombe.
Considera anche che spesso si confonde il fattore consumo comparandolo alla sola cpu. se un'architettura arm impiega il doppio del tempo per eseguire un compito nel computo totale devi inserire tutto il sistema, perchè il consumo successivo della macchina x86 sarà riversato sul lavoro successivo, mentre con Arm, sottosistemi disco, rete, memoria, ecc ancora pesano sul primo task.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^