PDA

View Full Version : Intel annuncia il Core and Visual Computing Group: Raja Koduri, ex AMD, a capo


Redazione di Hardware Upg
09-11-2017, 10:36
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/5040/intel-annuncia-il-core-and-visual-computing-group-raja-koduri-ex-amd-a-capo_index.html

Intel annuncia la costituzione di una nuova divisione interna, il Core and Visual Computing Group, con a capo Raja Koduri proveniente da AMD. Fine di questo nuovo gruppo interno quello di unificare le soluzioni graphics di Intel e sviluppare nuove architetture di GPU discrete, pensate tanto per i client come per il datacenter

Click sul link per visualizzare l'articolo.

supertigrotto
09-11-2017, 12:20
Ieri lo avevo anticipato

Pkarer
09-11-2017, 12:31
Non sono molto contento perché secondo me verrà a mancare concorrenza tra AMD e Intel. Se hanno già accordi per fare un processore Intel con GPU AMD...
Non vorrei facessero un cartello...

CiccoMan
09-11-2017, 14:04
Non sono molto contento perché secondo me verrà a mancare concorrenza tra AMD e Intel. Se hanno già accordi per fare un processore Intel con GPU AMD...
Non vorrei facessero un cartello...

In un regime di duopolio (come è quello attuale) la concorrenza non esiste... Con l'ascesa di Intel nel mercato delle soluzioni grafiche discrete c'è la possibilità che si instauri un regime di concorrenza reale:read:

Testicolo_Rotto
09-11-2017, 15:10
Fantastico, aspettavo da tantissimo una CPU Intel con GPU AMD.
Sicuramente quando uscira' mi faro' una nuova workstation :D

Pino90
09-11-2017, 15:18
Cavolo questi sono giorni storici per il mercato tecnologico!

Io non credo ad una competizione tra x86 e ARM su piattaforme casalinghe e workstation in tempi brevi.
Quello è per server e va bene, ma forse manco per tutti perché i core singoli comunque non sono potenti come i core x86.
Hai una capacità di calcolo complessiva simile ma quando di capita un qualcosa di troppo sequenziale la differenza si potrebbe sentire.

E poi fino a quando non si vedono le prestazioni come si fa a sapere se è buono?
Sono comunque 120W di TDP mica noccioline.
Come era chiaro a chi non si fa infinocchiare dalle leggende ARM non consuma magicamente meno di x86, semplicemente è possibile fare core minuscoli che consumano poco ideali per smartphone e cose del genere mentre con x86 non riesci a farlo.
Ma quando serve potenza ARM scalda tanto quanto x86.

Ciao, premesso che quello che dici secondo me è sostanzialmente vero, io credo che invece la rivoluzione avverrà dal basso. Ho avuto un paio di portatili ARM e devo dire che le prestazioni erano soddisfacenti per un uso home. Ora che sono passato ad un celeron quad x86 non vedo differenze se non che la batteria dura leggermente meno.

Penso che con il passare del tempo l'architettura ARM si evolverà per permettere il raggiungimento di prestazioni migliori, così come è stato al contrario per Intel che ha fatto evolvere la sua architettura per contenere i consumi. Sicuramente però mancano diversi anni prima di vedere workstation con procio ARM...

Vash88
09-11-2017, 15:51
Intel è da troppi anni alla ricerca di un architettura video prestazionale, determinante per il mercato calcolo scientifico e workstation. La sopravvivenza di Intel come colosso tecnologico del silicio passa anche da avere architetture grafiche top, una volta finita la corsa ai nm dove ha sempre mantenuto un vantaggio di 2 anni circa sulla concorrenza. L'acquisizione di Raja può solamente essere vista come un ottima svolta. Si configura un mercato a 3 compagnie con il knowhow necessario per competere ad alto livello.

Il mercato delle schede grafiche discrete è in costante calo, quindi mi aspetto che si concentrino sulla fascia alta del mercato che è stato il loro punto debbole finora.

sniperspa
09-11-2017, 16:13
Se intel si compra RTG è la volta che passo a Nvidia :doh:
:asd:

Pino90
09-11-2017, 16:31
Uso home inteso come navigazione, email, documenti, ecc. si, ma se sei un utente più pretenzioso che vuole fare qualche gioco (gioco vero, non quelli da tablet) o una conversione video seria un soc ARM muore.
Chiaro che ARM si evolverà verso l'alto ma evolvendosi verso l'alto consumerà di più proprio come x86 e non ci sarà grossa differenza.
Cioè ARM desktop/workstation non sarà una rivoluzione come molti credono, sarà solo un'alternativa che comunque sarà un piccola rivoluzione dopo 30 anni di dominio x86.

Si si uso home inteso proprio così, così come è ovvio che consumeranno di più. Non credo che qualcuno si aspetti un concorrente degli i7 in 5 watt di consumo...

Piedone1113
09-11-2017, 17:01
Qualcuno se lo aspetta si o almeno se lo aspettava negli anni passati :)



Certo un mercato più libero non può che fare bene.

Il problema del gaming sono i giochi stessi che sono scritti per x86 e Nvidia non può farci molto.
Chi può fare molto invece sono Microsoft e in piccola parte Sony che potrebbero spingere ARM sulle console e MS su windows store.
A questo punto potrebbe anche proporsi Nvidia per i soc delle console.

Ma parliamo di un trasferimento su ARM di tutto il mercato videoludico, ci vorranno 10 anni minimo.
10 anni se AMD ed Intel stanno fermi a vivere di rendita.
Come si evolverannoi SOC Arm si evolveranno anche quelli x86, e considerando l'esperienza enorme che AMD ed Intel hanno accumulato nel segmento videoludico puoi star certo che non saranno facilmente scalzate.
Ps una consolle ha bisogno di avere una potenza non indifferente, e bisognerebbe per prima cosa creare un soc Arm da 45/70w per stare al passo con x86. E non mi sembra che ce ne siano all'orizone ( soc da 8/12 core max)

mariacion
09-11-2017, 18:47
Che uomo azienda non so se ci guadagna più intel a prenderlo o amd a perderlo :)

Legolas84
09-11-2017, 19:07
Queste sono notizie che fanno moooooolto piacere.

Spero che intel non ci metta troppo a sviluppare una sua GPU perchè imho è una delle poche aziende che potrebbe rivaleggiare alla pari con NVIDIA in questo campo e quindi dare nuovi stimoli al mercato.

Sono anche curioso di vedere cosa succederà in futuro. Questa volta raja ha alle spalle un'azienda solida e con un capitale notevole, quindi ulteriori fail non sono contemplabili; se è così brillante come tutti speriamo ora potrà dimostrarlo.

Rimane da vedere cosa farà AMD che oltre ad avere un capitale ridotto rispetto alla concorrenza ora deve anche rimpiazzare Raja.... e considerando che sul lato CPU finalmente se la sta cavando decentemente magari potrebbe davvero vendere il RTG (ATi) ad Intel che con le sue possibilità di investimento potrebbe davvero finalmente riuscire a impensierire NVIDIA.....

imho ne vedremo delle belle!

tuttodigitale
09-11-2017, 19:42
Sono anche curioso di vedere cosa succederà in futuro. Questa volta raja ha alle spalle un'azienda solida e con un capitale notevole, quindi ulteriori fail non sono contemplabili; se è così brillante come tutti speriamo ora potrà dimostrarlo.
Per quanto può essere in gamba, devi tener presente anche del punto di partenza.
il vantaggio di avere un prodotto Intel, sta anche nei volumi di vendita che può generare...questo vuol dire che gli sviluppatori saranno più propensi a sviluppare prodotti in grado di sfruttare architetture moderne (ogni riferimento a VEGA è puramente casuale :D )

lucusta
09-11-2017, 21:03
al di là del consumo, prendendo l'equivalenza prestazionale che dichiara qualcomm per il suo 48 core contro il 28 core Intel a 2.5Ghz, viene fuori che un core ARM è competitivo a fattore 1.7 su un core skylake Intel a 2.5ghz, ossia che equivale ad uno skylake a 1.5ghz.
se ne avessero avuto effettivamente la possibilità aumentavano il TDP da 120 a 205W, come lo xeon 8180, ossia 1.7 volte piu' alto... purtroppo pero' i PP degli ultmi anni hanno golden spot molto ristretti in frequenza, quindi pur aumentando il TDP di 1.7 volte non avrebbero ottenuto che un 1.3 di prestazioni in più, ossia fare un processore comunque con le stesse prestazioni, ma piu' piccolo con 36 core (nulla si puo' dire se piu' economico, perchè la resa ha il suo bel peso e un chip da 300mm^2 ad elevata frequenza non ha ottime rese).

proiettando sul mondo consumer di oggi, con i software che ci sono, è una prestazione assai blanda, anche consumando una miseria.
puoi usarne 16, di core ARM, tali da egualiare le prestazioni di un quad intel ad oltre 4.5Ghz in multi thread, ma quando avvii il tuo giochino preferito, con la tua schedina video della marca preferita, ti accorgi che è un solo core che lavora intensamente e pesantemente, e se non hai frequenza non sfrutti la potenza di quella GPU.
diversamente i BD AMD avrebbero fatto faville, anche non avendo SMT ed essendo CMS.
quindi ARM su desktop consumer, possono stare a malapena su box office.

fraussantin
10-11-2017, 08:12
Queste sono notizie che fanno moooooolto piacere.

Spero che intel non ci metta troppo a sviluppare una sua GPU perchè imho è una delle poche aziende che potrebbe rivaleggiare alla pari con NVIDIA in questo campo e quindi dare nuovi stimoli al mercato.

Sono anche curioso di vedere cosa succederà in futuro. Questa volta raja ha alle spalle un'azienda solida e con un capitale notevole, quindi ulteriori fail non sono contemplabili; se è così brillante come tutti speriamo ora potrà dimostrarlo.

Rimane da vedere cosa farà AMD che oltre ad avere un capitale ridotto rispetto alla concorrenza ora deve anche rimpiazzare Raja.... e considerando che sul lato CPU finalmente se la sta cavando decentemente magari potrebbe davvero vendere il RTG (ATi) ad Intel che con le sue possibilità di investimento potrebbe davvero finalmente riuscire a impensierire NVIDIA.....

imho ne vedremo delle belle!

L'unica cosa certa è che intel eccetto che forse in un primo momento non giocherà a ribassare il prezzo.

Non lo ha mai fatto e non lo farà mai.

Inoltre investire tutto in un botto per arrivare a pareggiare quello che nvidia ha fatto un un decennio richiede grandi investimenti che poi dovranno uscire dal conto.

Secondo me alla fine intel vuole raji per creare un bel chip da Infilare nelle cpu o nei soc mobili e forse uno dedicato per portatili. Stop.

O forse semplicemente vuole SOLO uno in gamba per adattare il chip amd alle sue cpu e scrivere un driver. Chi meglio del creatore? E tutto il resto e fakenews

CrapaDiLegno
10-11-2017, 08:35
E ora so' caxxi amari per tutti e... è Koduri? Ah, no, allora no.

CrapaDiLegno
10-11-2017, 08:38
puoi usarne 16, di core ARM, tali da egualiare le prestazioni di un quad intel ad oltre 4.5Ghz in multi thread, ma quando avvii il tuo giochino preferito, con la tua schedina video della marca preferita, ti accorgi che è un solo core che lavora intensamente e pesantemente, e se non hai frequenza non sfrutti la potenza di quella GPU.
Paragone perfetto.. core per server a bassa frequenza e basso consumo vs core per desktop tirati al massimo.
Yeah, tu si che ne sai!

Alekx
10-11-2017, 08:50
Il passaggio di Raja potrebbe far parte dell'accordo per la fornitura di GPU discrete ad intel speriamo solo che stavolta AMD ne tiri fuori soldi da investire per il futuro.

Piedone1113
10-11-2017, 10:31
Paragone perfetto.. core per server a bassa frequenza e basso consumo vs core per desktop tirati al massimo.
Yeah, tu si che ne sai!

https://ark.intel.com/products/99978/Intel-Xeon-Processor-E3-1285-v6-8M-Cache-4_10-GHz

Onestamente non mi sembra ne tirato al max ne esoso di consumi.
Lo puoi usare per server economici, per workstation ed anche per gamemachine.
Se poi credi che Arm sia il Santo Graal dovrai ricrederti.

CrapaDiLegno
10-11-2017, 11:15
Il confronto era fatto rispetto ad un processore da gioco da 4.5GHz.
IL paragone non regge, perché l'ambito per cui il core ARM di Qualcomm è stato pensato non è quello di far girare un motore grafico monocore.

Nessuno crede che ARM sia il Santo Graal, ma è anche vero che il mercato non è fatto di i7-7700K o simili, anzi, se hai letto le ultime trimestrali di Intel, quel tipo di mercato è in diminuzione da qualche annetto.

Quindi se credi che avere un i7 che spacca i cu1i ai passeri nei videogame sia avere vita facile, mi sa che dovrai ricrederti.

Piedone1113
10-11-2017, 12:01
Il confronto era fatto rispetto ad un processore da gioco da 4.5GHz.
IL paragone non regge, perché l'ambito per cui il core ARM di Qualcomm è stato pensato non è quello di far girare un motore grafico monocore.

Nessuno crede che ARM sia il Santo Graal, ma è anche vero che il mercato non è fatto di i7-7700K o simili, anzi, se hai letto le ultime trimestrali di Intel, quel tipo di mercato è in diminuzione da qualche annetto.

Quindi se credi che avere un i7 che spacca i cu1i ai passeri nei videogame sia avere vita facile, mi sa che dovrai ricrederti.

Perchè l'ambito per il quale è stato pensato lo xeon da me postato è il Videogame monocore?
La situazione odierna ( e del prossimo futuro) è:
Per applicazioni fortemente mt con medio-alto carico a parità di consumo effettivo di elaborazione della cpu l'architettura arm è oltre il 30% meno efficiente che x86.
Su carichi ST è un ecatombe.
Considera anche che spesso si confonde il fattore consumo comparandolo alla sola cpu. se un'architettura arm impiega il doppio del tempo per eseguire un compito nel computo totale devi inserire tutto il sistema, perchè il consumo successivo della macchina x86 sarà riversato sul lavoro successivo, mentre con Arm, sottosistemi disco, rete, memoria, ecc ancora pesano sul primo task.

goku4liv
10-11-2017, 13:11
IL PROBLEMA è CHE Raja Koduri è A CONOSCENZA DI TUTTO QUEL CHE RIGUARDA I SEGRETI DELEL GPU AMD RADEON, E QUINDO DOVRA STARE MOLTO ATTENTO A NON INFRANGERE I BREVETTI DI AMD...........................

icoborg
10-11-2017, 14:29
vogliono attaccarsi al trenino del mining

fraussantin
10-11-2017, 14:31
IL PROBLEMA è CHE Raja Koduri è A CONOSCENZA DI TUTTO QUEL CHE RIGUARDA I SEGRETI DELEL GPU AMD RADEON, E QUINDO DOVRA STARE MOLTO ATTENTO A NON INFRANGERE I BREVETTI DI AMD...........................

Quello che è btevettato lo conosce anche intel è pubblico. Il problema sono le idee e i trucchi ancora non noti.


vogliono attaccarsi al trenino del mining

Non faranno mai in tempo.o meglio non si hanno certezze se tra 1,2 anni ( tsmpo ottimistico per sviluppare qualcosa) ci sarà sempre interesse. Il prodotto lo fai per un uso socuro, poi se c'è il mining tanto meglio.

Piedone1113
10-11-2017, 14:32
IL PROBLEMA è CHE Raja Koduri è A CONOSCENZA DI TUTTO QUEL CHE RIGUARDA I SEGRETI DELEL GPU AMD RADEON, E QUINDO DOVRA STARE MOLTO ATTENTO A NON INFRANGERE I BREVETTI DI AMD...........................

Veramente è notizia vecchia che Intel non ha rinnovato le licenze con nvidia per acquisire quelle di amd ( e si parlava per risparmiare, invece credo che lo si abbia fatto guardando molto lontano e prevedendo di spendere molti $)

CrapaDiLegno
10-11-2017, 16:47
Perchè l'ambito per il quale è stato pensato lo xeon da me postato è il Videogame monocore?
La situazione odierna ( e del prossimo futuro) è:
Per applicazioni fortemente mt con medio-alto carico a parità di consumo effettivo di elaborazione della cpu l'architettura arm è oltre il 30% meno efficiente che x86.
Su carichi ST è un ecatombe.
Considera anche che spesso si confonde il fattore consumo comparandolo alla sola cpu. se un'architettura arm impiega il doppio del tempo per eseguire un compito nel computo totale devi inserire tutto il sistema, perchè il consumo successivo della macchina x86 sarà riversato sul lavoro successivo, mentre con Arm, sottosistemi disco, rete, memoria, ecc ancora pesano sul primo task.

Io non parlavo del tuo esempio, ma di quello di lucusta che lo ha pensato al posto di un chip per gaming da 4.5GHz per far girare un videogioco GPU intensive.

Comunque qui un po' di test del chip di Qualcomm usato nel segmento per cui è stato pensato, esattamente come i chip di Intel a confronto:
https://hothardware.com/news/qualcomm-centriq-2400-cloudfare-benchmarks

mikegemini77
10-11-2017, 20:47
IL PROBLEMA è CHE Raja Koduri è A CONOSCENZA DI TUTTO QUEL CHE RIGUARDA I SEGRETI DELEL GPU AMD RADEON, E QUINDO DOVRA STARE MOLTO ATTENTO A NON INFRANGERE I BREVETTI DI AMD...........................

Se è vero che intel pianifica di comprarsi tutto RTG da AMD si prenderebbe tutto il pacchetto.

Legolas84
10-11-2017, 20:53
IL PROBLEMA è CHE Raja Koduri è A CONOSCENZA DI TUTTO QUEL CHE RIGUARDA I SEGRETI DELEL GPU AMD RADEON, E QUINDO DOVRA STARE MOLTO ATTENTO A NON INFRANGERE I BREVETTI DI AMD...........................

Le GPU AMD hanno bisogno di profondi cambiamenti architetturali soprattutto nell'area delle alte prestazioni. Se Intel vuole entrare nel mercato imho deve farlo con un'architettura nuova, non con l'ennesimo GCN rattoppato.

Quindi non credo ci saranno problemi di questo tipo.

mikegemini77
10-11-2017, 20:58
La vera notizia non è il passaggio di questo tizio da AMD a Intel (che al limite è solo una parte della questione) ma è la voce che Intel potrebbe comprarsi tutta la divisione di AMD che si occupa di GPU ovvero RTG (Radeon Technologies Group)!

Se ci fate caso tutti gli indizzi portano nella stessa direzione:
1) Il passaggio di Raja Koduri ad Intel proveniente da AMD.
2) L'annuncio Di Intel che produrrà Processori Intel Core con GPU AMD Vega.
3) L'assenza persistente di GPU Vega Custom sul mercato, come se qualcosa si sia 'freezato'.

Ora abbiamo AMD-Radeon vs Nvidia-Geforce... in futuro potrebbe diventare Intel-Radeon vs Nvidia-Geforce!


PS: ma Ventura è proprio un caprone! insiste a giocare con 2 numeri nove e tiene uno dei migliori come Insigne in panchina? uno dei pochi buoni che ci sono e non lo fa giocare?? Non vede che al centrocampo manca qualcosa e le 2 punte sono isolate? togli una punta e metti Insigne alla mezzala! Capra! ma gli hanno pure rinnovato il contratto a questo qui?? Ma ci fa o ci è??

tuttodigitale
11-11-2017, 00:51
Le GPU AMD hanno bisogno di profondi cambiamenti architetturali soprattutto nell'area delle alte prestazioni.

sarebbe bene ricordare che stiamo pur sempre parlando della architettura più evoluta e meno sfruttata allo stato attuale.
http://www.punto-informatico.it/punto/20170731/2017-07-30-image-10.jpg
Non ti sorge il dubbio che la maggior efficienza di Pascal è dovuta più alla sua semplicità e mancanza di caratteristiche avanzate, che non al semplice fatto che nvidia è meglio di AMD? ;)

Legolas84
11-11-2017, 01:12
sarebbe bene ricordare che stiamo pur sempre parlando della architettura più evoluta e meno sfruttata allo stato attuale.
http://www.punto-informatico.it/punto/20170731/2017-07-30-image-10.jpg
Non ti sorge il dubbio che la maggior efficienza di Pascal è dovuta più alla sua semplicità e mancanza di caratteristiche avanzate, che non al semplice fatto che nvidia è meglio di AMD? ;)

Quella slide poco ha a che vedere con l’efficienza dell’architettura. Indica solo il livello di supporto ad alcune funzioni dx12 e devono essere supportate dai giochi per essere utili. Insomma dovrebbero uscire giochi appositamente scritti per supportare il tier 3 di una funzione per poter forse percepire una qualche differenza prestazionale. La realtà è che attualmente e nel prossimo futuro è già tanto se usciranno giochi con un supporto base alle dx12 figurati alle 12.1...
Quella è una validissima slide pubblicitaria ma si ferma lì. Le dx12 non garantiscono alcun miglioramento della qualità grafica, ma solo un aumento delle prestazioni. Va benissimo ma anche nei pochissimi giochi che le supportano le carte in tavola non cambiano.

I problemi di AMD a livello di architettura sono altri e non perché le loro gpu hanno più “cose” o sono più evolute. Per molti compiti della gpu nvidia ha unità dedicate, mentre AMD emula le funzioni (ed ecco perché AMD va di meno anche se sviluppa più tflops). Su Vega ad esempio è stato poi spiegato che ci sono problemi notevoli di banda passante... insomma se vieni sui thread dedicati ci sono approfondimenti molto interessanti che ti possono aiutare a capire il perché oggi il mercato si trova in questa situazione, perchè Vega sia uscita così in ritardo e perché è ormai da diverso tempo che GCN dovrebbe essere accantonata in favore di qualcosa di più moderno.

E probabilmente con questo scossone siamo arrivati finalmente a quel momento.

cdimauro
11-11-2017, 11:47
Sostanzialmente concordo con questo tuo ultimo commento, Legolas84.
Intel è stato quasi ferma per 10 anni
Ma anche no: ripeterlo all'infinito non lo renderà vero.
mentre AMD era in letargo e forse è anche per questo che ARM si è fatta sotto.
No, ARM partiva da micro-architetture embedded e non s'è mai interessata a spingere l'acceleratore sulle prestazioni fino a quando non sono arrivati gli smartphone che hanno spinto molto in questa direzione.
Ma adesso in AMD sembra tornata la primavera e il disgelo a portato alla luce ryzen e rimesso il pepe in quel posto anche ad Intel.
Che non ha ancora presentato nuove micro-architetture per contrastare Ryzen.

Dunque il pepe dove starebbe?
Intel sembra aver messo su un po' di pancetta in 10 anni di sedentarietà
Idem come sopra: falso. Intel ha certamente un'ottima architettura grazie a Nehalem, ma ferma non lo è stata di certo. Tutt'altro, visto che ha presentato le AVX, AVX-2, e qualche anno fa le AVX-512 (solo nel mercato server inizialmente. Sono arrivato in ambito HEDT solo di recente) che hanno rivoluzionato il concetto di SIMD (mi riferisco alle AVX-512 in particolare) e contestualmente le prestazioni.
e nei primi giri di pista da quando AMD si è svegliata è sembrata un po' un panda che cerca di correre, ma sono sicuro che ci metterà poco a tornare in forma :asd:
Quando presenterà una nuova micro-architettura ne riparleremo. Al momento corse non ne vedo proprio, visto che le basta riciclare core vecchi di qualche anno, oppure semplicemente di continuare con quelli che erano in programma.
ARM ha corso tanto perchè è partita molto dopo, bisogna vedere se ha ancora fiato per correre e stare al passo.
Apple ha mostrato già quello che può fare una (micro)architettura ARM votata alle prestazioni.

Ed è un design abbastanza tirato (fino a 6 istruzioni decodificate ed eseguite per ciclo di clock. Per contro Skylake è ferma a 4), per cui prevedere qualcosa di ancora più spinto prestazionalmente è abbastanza difficile.
Le GPU AMD hanno bisogno di profondi cambiamenti architetturali soprattutto nell'area delle alte prestazioni. Se Intel vuole entrare nel mercato imho deve farlo con un'architettura nuova, non con l'ennesimo GCN rattoppato.

Quindi non credo ci saranno problemi di questo tipo.
C'è da dire che Intel ha già le sue IP in ambito GPU, e non credo che vorrà buttare tutto nel cesso. Come non vorrà nemmeno farsi carico dei problemi di GCN.

Koduri (ogni volta sbaglio il nome, scusate :D) non può rivoluzionare tutto subito, se è questa la sua intenzione (probabilmente ha già in mente qualche idea per nuova, innovativa micro/architettura per GPU. E mi pare normale per chi lavora in quest'ambito), ma servirà tempo.

Nel frattempo credo che assisteremo a un po' di cambiamenti non radicali.

tuttodigitale
11-11-2017, 13:03
Ma anche no: ripeterlo all'infinito non lo renderà vero.
sono d'accordo... i 10nm che sono usciti da poco, NON sono minimamente paragonabili ai 14nm di Intel...
d'altra parte questo processo nella variante ++, ha raggiunto un tale livello di prestazione che la stessa Intel non si aspetta chissà quali miglioramenti con il passaggio ai 10 nm , se non a livello di integrazione (che cade a fagiolo per le GPU....).

Quando i concorrenti dicono che le prestazioni miglioreranno del 35% a parità di consumo con l'introduzione dei 7nm....stanno implicitamente affermando che il loro attuale processo produttivo fa "cagare" (tra virgolette, visto che solo Intel li sa fare meglio)...

cdimauro
11-11-2017, 13:23
Ma infatti non gli resta che rifugiarsi nei numeretti marchettari: 10nm, 7nm, e persino 5nm. Quando poi la realtà è MOLTO diversa, e Intel rimane ancora parecchio avanti quanto a processi produttivi.

I 10nm servono senz'altro per la (molto) maggiore integrazione in primis. Il resto è grasso che cola.

GTKM
11-11-2017, 13:25
sono d'accordo... i 10nm che sono usciti da poco, NON sono minimamente paragonabili ai 14nm di Intel...
d'altra parte questo processo nella variante ++, ha raggiunto un tale livello di prestazione che la stessa Intel non si aspetta chissà quali miglioramenti con il passaggio ai 10 nm , se non a livello di integrazione (che cade a fagiolo per le GPU....).

Quando i concorrenti dicono che le prestazioni miglioreranno del 35% a parità di consumo con l'introduzione dei 7nm....stanno implicitamente affermando che il loro attuale processo produttivo fa "cagare" (tra virgolette, visto che solo Intel li sa fare meglio)...

Infatti e' tutta una questione di integrazione.

Il problema e' far capire ad alcuni che i transistor non funzionano grazie allo spirito santo, ma per precise leggi fisiche (quantistiche). Rimpicciolendoli oltre un certo limite, tante approssimazioni non sono piu' valide e, di conseguenza, non funziona piu' niente.

cdimauro
11-11-2017, 13:55
E' competitiva, certamente. Ma non abbastanza da impensierire Intel, che ha già un'ottima micro-architettura, che continua ad affinare.

Legolas84
11-11-2017, 14:01
Quel che è certo è che AMD recuperando l'enorme gap che aveva rispetto ai processori Core ha costretto Intel ad aprire i rubinetti e immettere sul mercato CPU che se non fosse stato per Ryzen chissà quando avremmo visto.

Quello che mi ha lasciato sconcertato della piattaforma X299 è stata la pasta del capitano, il taglio di linee PCI-EXPRESS e l'aumento dei prezzi.

Attualmente se AMD andasse bene nei giochi prenderei senza dubbio un Ryzen, ma vista la situazione mi tengo stretto il mio 5930K e resto alla finestra in attesa di una vera piattaforma X da parte di intel o di Ryzen 2 :)

Obad-Hai
11-11-2017, 19:26
no,
Quale geniale, pezzo da novanta, etc etc in giro non si legge altro.
Ha affossato amd poi l'ha lasciata, innovatore, ma di cosa? quali cambiamenti in 2 anni e mezzo? da CGN a Vega c'è il nulla, ellesmere, polaris, ma li avete visti? l'unica cosa che hanno aumentato sono gli shaders, da 2304 a 4096, e ti credo che va meglio, ma l'efficenza? nulla, da 200 a a 375 watt, e a livello software? la liberta di computazione in fp32 e fp64? l'inutilità, ci sono stati piu migliorie tra vari CGN come
il passaggio dai 2 a 4 geometry engine, o ancora meglio la svolta come ha fatto nvidia con la compressione (Delta color compression), tutte cose fatte senza "l'indispensabile" genio, è vero i soldi per la ricerca erano meno di nvidia, ma sono comunque stati indirizati male, HBM2, uno dei maggiori resbonsabili di atroci ritardi, sono state ottimizate secondo questo nuovo tipo di memoria quando radeon aveva gia tutta la banda di cuia veva bisogno anni addietro, è sempre stata avanti a nvidia rispetto a questo, perche affogari capitali e tempo in questa cosa se gia si era arrivati a quasi 400mb/s con ddr5? non erano in grado di sfruttarla al tempo, figuariamoci dopo aver investito ancora piu tempo sulla ram anziche sull'architettura, volendo con leggera ottimizzazione della ram si potevanoa arrivare ai 1500mhz, basta, invece no si è buttato in una scommessa di mercato sensa considerane la disponibilita, sono memorie che non vengono usate neanche sulle titan xp pascal, ma solo nelle schede tesla nei data center e deep learning. Io non so se sia stato un fatto di costi contratti disponibilita, ma questi anni sono stati piu che uno scontro tra amd e samsung piu che con nvidia.

2013 r9 290 320gb/s ddr5 1250mh bus 512bit
2015 r9 390 384gb/s ddr5 1500mhz bus 512bit
2015 fury 512gb/s hbm1 500mhz 4096bit
2017 483gb/sshbm2 vega 64 945mhz 2048bit (ma con 8 volte la capacita per stack)
la gtx 1080 ha 320gb/s per gestire 8gb e la 1080 ti 484g/s per gestirne ben 11!
la riprogettazione del die con memorie integrate è stato uno sforzo non da poco, ci sono riusciti, ma non ha prototto risultati
https://images.anandtech.com/doci/11002/Vega%20Final%20Presentation-15.png

In italia la fascia di prezzo della 1060 la rende una delle piu vendute, ma all'estero la n1 è la gtx 1070 per vendite e non ostante tutto vega 56 a difefrenza di vega 64 ha un rapporto accettabile qualità/consumi, e poteva veramente dar fastidio alla 1070 un anno fa, e forse con un prezzo ancora miniore se fossero rimasti a ddr5, o al max hbm1. Vega 56 avrebbe dato ossigeno in quantita, che ancora la 1070 ti non esisteva.

"ringrazio tutto il team amd" bla bla bla, "rendetemi fiero" bla bla bla, falso, ha firmato personalmete le schede vega e dopo il suo mese "sabbatico" con la famiglia è passato ad intel, ma dove sta la coerenza? glie lo ha detto la moglie di passare alla concorrenza? "se non vai ad intel non ti amo piu!" o era gia nella sua mente da tempo?
Una persona che non ha accettato la sfida a creare qualcosa di nuovo, molto piu facile rivendere la tecnologia bella e fatta di amd radeon a intel ed essere un rocco tra gli eunuchi con intel, che fare qualche piccola miglioria ma con sensata con amd. Gia era passato ad apple tempo fa e non so come lo abbiano ripreso in amd.
I cambiamnte piu grandi sono stati fatti senza di lui, come da terrascale a gcn. Amd è stata sempre in grado di rinnovarsi (a patto che non ci sia lui ovviamente) e lo fara ancora, spero solo che radeon non venga acquistata per intero da intel visto il negativo 2016 2017.
Ma ora basta, è il momento di intel 520 con hbm2,(scherso) ma scordatevi che tra una generazione di GPU intel si avvicini anche MINIMAMENTE anche solo concorrenzialemnte con prodotti meno performanit ma prezzi piu bassi a tesla v100, che è il settore dove intel vuole mettere mani.
Spero che tu rimanga capo divisione intel per altri 6 anni, cosi da ristabilie l'equlibrio di danni fatti con amd.

PS sembrava amd avesse abbandonato l'idea di hbm1 dopo l'avvento di polaris, ma sembra che questa persona abbia la capacita di evocare il male sepolto e fantasmi allo scopo di far perdere la ragione ai mortali.
Il 2016 2017 credevo fosse l'anno degli shader indipendenti dal core clock, come fece nvida dal fermi al kepler. altro che hbm! siamo matti? aumentiamo ancora la banda che andiamo a suonare...

una volta finito anche con intel andrai a fare la grafica degli ovini kinder.

scusate lo sfogo ma ho letto ieri la notizia del suo passaggio a intel e viene trattato come fosse stato quello che ha fatto i miracoli con amd radeon.

a me piace ricordarlo cosi, come l'ho visto la prima volta con quelli di linus tech nella presentazione della rx 480

https://www.youtube.com/watch?v=P2DM4iYpE28

cdimauro
11-11-2017, 21:19
Quel che è certo è che AMD recuperando l'enorme gap che aveva rispetto ai processori Core ha costretto Intel ad aprire i rubinetti e immettere sul mercato CPU che se non fosse stato per Ryzen chissà quando avremmo visto.
Intel aveva già da tempo in roadmap processori a 6 core per il segmento desktop, e a 10 e 12 core quello HEDT.

Ma è stata presa in contropiede con ThreadRipper, di cui non si sapeva nulla fino a poco prima della commercializzazione di Ryzen, per cui ha dovuto portare anche gli Xeon a 14, 16, e 18 core in ambito HEDT.
Quello che mi ha lasciato sconcertato della piattaforma X299 è stata la pasta del capitano, il taglio di linee PCI-EXPRESS e l'aumento dei prezzi.
Se i prezzi sono rimasti alti, ci sarebbe da chiedersi se la competizione di AMD con Ryzen abbia realmente inciso. ;)
Attualmente se AMD andasse bene nei giochi prenderei senza dubbio un Ryzen, ma vista la situazione mi tengo stretto il mio 5930K e resto alla finestra in attesa di una vera piattaforma X da parte di intel o di Ryzen 2 :)
Generalmente cambio hardware al PC solo quando si rompe scheda madre e/o CPU, per cui mi auguro di non dover mettere mani al portafogli ancora per molto.

In ogni caso, se dovesse succedere, valuterei al solito un processore con elevate prestazioni in ST, visto che uso per lo più applicazioni di questo tipo, e mi serve ridurre il response time.
Idem per gli emulatori che uso, che prediligono processori con prestazioni elevate in ST. E a tal proposito la prossima CPU dovrà assolutamente avere le AVX-512, visto che fra le nuove istruzioni ce n'è una che consente di manipolare bitplane e implementare operazioni di bit-blitting in maniera estremamente semplice e, soprattutto, performante. :cool:

Gyammy85
13-11-2017, 10:25
no,
Quale geniale, pezzo da novanta, etc etc in giro non si legge altro.
Ha affossato amd poi l'ha lasciata, innovatore, ma di cosa? quali cambiamenti in 2 anni e mezzo? da CGN a Vega c'è il nulla, ellesmere, polaris, ma li avete visti? l'unica cosa che hanno aumentato sono gli shaders, da 2304 a 4096, e ti credo che va meglio, ma l'efficenza? nulla, da 200 a a 375 watt, e a livello software? la liberta di computazione in fp32 e fp64? l'inutilità, ci sono stati piu migliorie tra vari CGN come
il passaggio dai 2 a 4 geometry engine, o ancora meglio la svolta come ha fatto nvidia con la compressione (Delta color compression), tutte cose fatte senza "l'indispensabile" genio, è vero i soldi per la ricerca erano meno di nvidia, ma sono comunque stati indirizati male, HBM2, uno dei maggiori resbonsabili di atroci ritardi, sono state ottimizate secondo questo nuovo tipo di memoria quando radeon aveva gia tutta la banda di cuia veva bisogno anni addietro, è sempre stata avanti a nvidia rispetto a questo, perche affogari capitali e tempo in questa cosa se gia si era arrivati a quasi 400mb/s con ddr5? non erano in grado di sfruttarla al tempo, figuariamoci dopo aver investito ancora piu tempo sulla ram anziche sull'architettura, volendo con leggera ottimizzazione della ram si potevanoa arrivare ai 1500mhz, basta, invece no si è buttato in una scommessa di mercato sensa considerane la disponibilita, sono memorie che non vengono usate neanche sulle titan xp pascal, ma solo nelle schede tesla nei data center e deep learning. Io non so se sia stato un fatto di costi contratti disponibilita, ma questi anni sono stati piu che uno scontro tra amd e samsung piu che con nvidia.

2013 r9 290 320gb/s ddr5 1250mh bus 512bit
2015 r9 390 384gb/s ddr5 1500mhz bus 512bit
2015 fury 512gb/s hbm1 500mhz 4096bit
2017 483gb/sshbm2 vega 64 945mhz 2048bit (ma con 8 volte la capacita per stack)
la gtx 1080 ha 320gb/s per gestire 8gb e la 1080 ti 484g/s per gestirne ben 11!
la riprogettazione del die con memorie integrate è stato uno sforzo non da poco, ci sono riusciti, ma non ha prototto risultati
https://images.anandtech.com/doci/11002/Vega%20Final%20Presentation-15.png

In italia la fascia di prezzo della 1060 la rende una delle piu vendute, ma all'estero la n1 è la gtx 1070 per vendite e non ostante tutto vega 56 a difefrenza di vega 64 ha un rapporto accettabile qualità/consumi, e poteva veramente dar fastidio alla 1070 un anno fa, e forse con un prezzo ancora miniore se fossero rimasti a ddr5, o al max hbm1. Vega 56 avrebbe dato ossigeno in quantita, che ancora la 1070 ti non esisteva.

"ringrazio tutto il team amd" bla bla bla, "rendetemi fiero" bla bla bla, falso, ha firmato personalmete le schede vega e dopo il suo mese "sabbatico" con la famiglia è passato ad intel, ma dove sta la coerenza? glie lo ha detto la moglie di passare alla concorrenza? "se non vai ad intel non ti amo piu!" o era gia nella sua mente da tempo?
Una persona che non ha accettato la sfida a creare qualcosa di nuovo, molto piu facile rivendere la tecnologia bella e fatta di amd radeon a intel ed essere un rocco tra gli eunuchi con intel, che fare qualche piccola miglioria ma con sensata con amd. Gia era passato ad apple tempo fa e non so come lo abbiano ripreso in amd.
I cambiamnte piu grandi sono stati fatti senza di lui, come da terrascale a gcn. Amd è stata sempre in grado di rinnovarsi (a patto che non ci sia lui ovviamente) e lo fara ancora, spero solo che radeon non venga acquistata per intero da intel visto il negativo 2016 2017.
Ma ora basta, è il momento di intel 520 con hbm2,(scherso) ma scordatevi che tra una generazione di GPU intel si avvicini anche MINIMAMENTE anche solo concorrenzialemnte con prodotti meno performanit ma prezzi piu bassi a tesla v100, che è il settore dove intel vuole mettere mani.
Spero che tu rimanga capo divisione intel per altri 6 anni, cosi da ristabilie l'equlibrio di danni fatti con amd.

PS sembrava amd avesse abbandonato l'idea di hbm1 dopo l'avvento di polaris, ma sembra che questa persona abbia la capacita di evocare il male sepolto e fantasmi allo scopo di far perdere la ragione ai mortali.
Il 2016 2017 credevo fosse l'anno degli shader indipendenti dal core clock, come fece nvida dal fermi al kepler. altro che hbm! siamo matti? aumentiamo ancora la banda che andiamo a suonare...

una volta finito anche con intel andrai a fare la grafica degli ovini kinder.

scusate lo sfogo ma ho letto ieri la notizia del suo passaggio a intel e viene trattato come fosse stato quello che ha fatto i miracoli con amd radeon.

a me piace ricordarlo cosi, come l'ho visto la prima volta con quelli di linus tech nella presentazione della rx 480

https://www.youtube.com/watch?v=P2DM4iYpE28

Che c'entrano i 4096 sp di vega contro i 2304 di polaris? casomai confrontala con fiji, vega in certe situazioni va il doppio a parità di unità di calcolo...e polaris ormai va quasi sempre più delle 1060, non parliamo del computing dove le devasta...eh ma i consumiiiiiiiiii, il silicio purtroppo è quello che è, vedremo quello di volta e ampere ed il plot twist da maxgreen a maxpower

Obad-Hai
24-11-2017, 18:57
Si hai ragione Gyammy85 con fiji calza di piu, essendo highend, anche se sempre cgn, infatti era per paragonare gcn a vega. Effettivamente un certo miglioramento c'è, quello che volevo dire è questo:
facciamo vega 64 (4096) e fury x (4096, stessi sp)
c'è un buon guadagno, piu del 30%, ma guarda le frequenze! si è potuti passare da 1000 a 1600 di clock, guadagno immenso ma perché sono prodotte a 14nm non 28 e scaldando meno.
tutto il lavoro di mettere la ram assieme al chip a cosa serve? a livello prestazioni? eppure quello è stato un gran lavoro... ora dirò qualcosa di paranoico, ma sui portatili dove ci sono problemi di spazio e calore questa soluzione è ottima, con un dissipatore piccolo raffreddi il tutto, stavano già pensando a questo? a soluzioni integrate ad intel? per me è l'unica cosa che ha senso, o mi sbaglio? Koduri non ha lavorato per amd.

Gyammy85
25-11-2017, 12:52
Si hai ragione Gyammy85 con fiji calza di piu, essendo highend, anche se sempre cgn, infatti era per paragonare gcn a vega. Effettivamente un certo miglioramento c'è, quello che volevo dire è questo:
facciamo vega 64 (4096) e fury x (4096, stessi sp)
c'è un buon guadagno, piu del 30%, ma guarda le frequenze! si è potuti passare da 1000 a 1600 di clock, guadagno immenso ma perché sono prodotte a 14nm non 28 e scaldando meno.
tutto il lavoro di mettere la ram assieme al chip a cosa serve? a livello prestazioni? eppure quello è stato un gran lavoro... ora dirò qualcosa di paranoico, ma sui portatili dove ci sono problemi di spazio e calore questa soluzione è ottima, con un dissipatore piccolo raffreddi il tutto, stavano già pensando a questo? a soluzioni integrate ad intel? per me è l'unica cosa che ha senso, o mi sbaglio? Koduri non ha lavorato per amd.

Non credo che lo scaling della frequenza sia lineare, comunque raja in un vecchio tweet aveva detto che l'infinity fabric in vega funziona meglio nelle applicazioni pro, credo che essendo presi da ryzen abbiano scelto di impiegare più risorse nel settore pro...vega fe ha prestazioni devastanti in quell'ambito soprattutto rispetto alle precedenti architetture. E comunque con questo silicio non potevano fare di più. Navi sarà a 7 nm e lì potranno fare stile r600 a rv770.

Obad-Hai
02-12-2017, 00:26
bhe pixel e texture rate sono linerari con la frequenza.
cmq bel lavoro su pro e instinct
E comunque con questo silicio non potevano fare di più. Navi sarà a 7 nm e lì potranno fare stile r600 a rv770.
Vero, ma 1600mhz sono già ok, uguale nvidia, sono gli shaders che vanno rinnovati, cioè ora li chiamano CU ma sono uguali, e 4096 con l'efficienza energetica che hanno(la stessa di prima) sono troppi! devono lavorare li!
Ripeto quell'incorporamento della memoria nel DIE...bho, veramente.
L'RV 770!!!! uuu che nostalgia XD, io avevo la gtx 8800 che andava meglio di r600, poi un anno dopo uscirono ste bestie!!!
Speriamo sia come dici tu^^