|
|
|
|
Strumenti |
21-04-2017, 10:26 | #21 | ||
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14720
|
Quote:
In questo ambito le tecnologie sono utili solo in una certa finestra temporale, poi tramontano. Non sfruttarle è semplicemente uno spreco di soldi. Quote:
Il processo produttivo credo sia davvero il campo in cui con meno probabilità Intel possa avere qualcosa di nascosto, per lo meno rimanendo nell'ambito del silicio, e basta vedere cosa è successo negli ultimi anni per rendersene ne conto: - Intel ha speso cifre molto molto alte per sostenere il ritmo che ha avuto negli ultimi anni, con investimenti anche doppi e tripli rispetto alle fonderie concorrenti. - Negli ultimi anni ha più volte disatteso le roadmap di sviluppo dei processi produttivi, segno che le difficoltà ci sono, pensare che abbia un processo produttivo superiore già pronto mi pare fantascienza. - Ha cominciato ad aprire, seppur limitatamente, le proprie fonderie ad aziende terze, cosa che non avrebbe fatto se in questo settore fosse stata in acque calme. - e probabilmente qualche altra cosa che ora mi sfugge. Il 6950x è comunque un processore "grosso". Credi che se Intel avesse un'architettura migliore che potesse garantire tale esclusività ad un costo inferiore non la userebbe? Anzi, apparirebbe ancor più esclusivo e si venderebbe di più. Oggi i processori Ryzen mettono in dubbio questa esclusività (dato che a breve vedremo i 12-16 core), credo che se Intel avesse avuto qualche coniglio nel cilindro non avrebbe rischiato di vedere messa in dubbio la sua supremazia. |
||
21-04-2017, 12:39 | #22 |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 26775
|
Il mercato PC è in forte regressione da 10 anni, c'è sempre meno interesse a sviluppare nuove tecnologie (complice anche una raggiunta maturità tecnologica che poco giustifica processori più performanti degli attuali) e ci sono sempre meno ritorni economici sugli investimenti (sempre più onerosi) per la riduzione dei processi produttivi (per questo Intel sta cercando partner per i suoi prossimi nodi inferiori a 10nm, per spalmare le spese e coprire una sua capacità produttiva superiore alla richiesta).
Mentre Intel sta adagiandosi sugli allori e sta pagando pegno per alcune sue scelte discutibili, come la vendita della branca ARM (Xscale), lo spingere sui SoC x86 in stile Atom (rivelatisi poi un mezzo fallimento e capaci di tamponare tale situazione solo nel corto/medio periodo... ora praticamente concluso) e il non allargarsi in nuovi mercati ed acquisire nuove tecnologie, AMD grazie alla sua più snella organizzazione aziendale e, forse, visione più lungimirante del mercato, sta prendendo di mira i mercati più lucrativi ed ancora in espansione, come il server e le console (Ryzen è una declinazione consumer di un progetto modulare pensato principalmente per i server e, in misura minore, le future console). Neppure l'integrazione della GPU e lo sviluppo delle AVX è riuscita a fare da volano per un'espansione tecnologica (e se davvero assisteremo all'integrazione di GPU Radeon in CPU Intel sarà veramente la fine), mentre sono indubbi i vantaggi dell'ulteriore integrazione dei controller di sistema nella CPU (le attuali schede mITX Ryzen non hanno né S/B né N/B) e la creazione di un sistema modulare quale il CCX (che in futuro sarà sempre più scalare, basti vedere i migliaia di stream processors integrati nelle GPU). Fino a che dureranno i grandi contratti di fornitura alle grandi aziende (HP, Dell, IBM, ma ora anche Google, Facebook e Apple, che comprano senza intermediari) Intel si può ritenere piuttosto coperta finanziariamente, ma prima o poi la recessione economica costringerà anche queste aziende ad allentare il cappio e a diversificare la propria fornitura, fosse anche solo per la classica esigenza del "pagare meno" (questo a prescindere che i conti delle aziende siano in passivo o in attivo). Diciamo che se volessi investire in azioni credo che nel medio/lungo periodo (da 1 a 8 anni) sarebbe molto più lucrativo riallocarle da Intel su AMD. Previsioni superiori ai 10 anni diventano più difficili in quanto si spera che, pur lentamente, Intel provveda a una riorganizzazione del suo business. Inoltre potrebbero uscire soluzioni tecnologiche in grado di ribaltare completamente il campo di battaglia (es. un ARM capace di emulare efficacemente le istruzioni x86-64 potrebbe mangiare completamente il settore consumer di fascia medio/bassa, non tanto per l'emulazione in sé, ma perché innescherebbe fenomeni di migrazione sulla nuova piattaforma, che costringerebbe a sua volta i programmatori di software a ricompilare i programmi anche per architetture ARM, con uno sviluppo a valanga). Ultima modifica di MiKeLezZ : 21-04-2017 alle 12:42. |
21-04-2017, 15:31 | #23 | ||
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4079
|
Quote:
mettiti nei panni di Intel che aveva praticamente tutto il mercato PC...per quale ragione dovresti ridurre il margine? Anzi, quello che ha fatto Intel in questi anni è proprio il contrario: sono passati alla pasta del capitano le dimensioni del die sono diminuiti in maniera piuttosto drastica...una GPU polaris 10 è decisamente più grande di uno skylake 4c.... Probabilmente questo risparmio sulle dimensioni del die ha permesso anche il risparmio sugli aggiornamenti delle FAB. La FAB 42 ad esempio sarà convertita a 7nm EUV senza che abbia prodotto chip a 14 e 10nm..... ipotizziamo che i 7nm EUV siano dietro l'angolo, Intel potrebbe impiegare i 10nm solo la dove strettamente necessario....SERVER e MOBILE (ricordo che i chip ULV più pregiati costano ben più di un i7 7700K), e coprire la fascia mainstream con i collaudati 14nm (per quel che ne sappiamo CL potrebbe essere un esacore da almeno 4GHz base....), e saltare sula giostra dei 10nm (che avranno raggiunto ottime rese nel frattempo) solo quando i 7nm EUV sono pronti. Quote:
a) dal sofwtare in uso....ad esempio è estremamente probabile che le CPU del futuro Intel siano in grado di sfruttare con maggior efficacia le AVX256 e 512 più di quanto non lo facciano adesso, figlia di una scelta progettuale che non penalizzi le prestazioni con il software odierno. b) di solito ad un aumento di ipc corrisponde ad un aumento del consumo ben maggiore...è ritenuto buono una feature che aumenti le prestazioni dell'1% e che aumenta il consumo non più del 3%, questo perchè con i processi odierni contenere anche di poche centinaia di MHz la frequenza (caso eclatante Ryzen) permette di abbassare e di molto i consumi.. c) a meno di grossi errori di valutazione, è davvero difficile che una architettura possa essere mediamente molto più efficiente. Spesso per migliorare l'efficienza con una tipologia di problemi perdi in altri settori... Prendiamo un caso eclatante, che probabilmente non verrebbe neppure in mente di paragonare....PD vs ZEN. A livello di architettura, secondo AMD ZEN aumenterebbe l'efficienza del 30% nei confronti di PD in un test come cinebench in cui virtualmente non ci sarebbe partita (PD è sbilanciato sugli interi), senza contare che nello stesso test XV è circa il 23% più veloce (ma non è dato sapere l'effettiva efficienza)... 30% è circa la differenza di prestazioni che separano un fx8350 ad un 1500x in cinebench... con un carico misto (handbrake) con addirittura maggior dipendenza delle prestazioni ST il divario si riduce al 20%... nella compressione (7-zip) il fx8350 è più veloce del 10% rispetto al 1500x... se quello che dice AMD è vero, la media su questi tre test ci dice che la differenza di efficienza tra ZEN e PD è di solo il 13%....nulla che faccia dire che ZEN è un miracolo e che PD sia un architettura mediocre (ha pur sempre 4 anni)... questo per dire che le architetture possono fare reale differenza quanto più diventano "specializzate".... d) per quanto riguarda l'introduzione di nuove tecnologie, devono valutare anche l'effettiva durabilità- è ragionevole pensare che se Intel non ha introdotto una nuova architettura è perchè questa o non è migliore, necessità di un silicio diverso (che può essere rimandato anche per politiche commerciali...) o perchè implementa tecnologie non sufficientemente collaudate. Ultima modifica di tuttodigitale : 21-04-2017 alle 15:37. |
||
21-04-2017, 15:51 | #24 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4079
|
Quote:
se domani AMD facesse una CPU con un core il 30% più piccolo questo si tradurrebbe in una riduzione del die size di soli 6 punti percentuali.... Intel vuole anticipare l'introduzione dei 10nm nel mercato server (le CPU CanonLake mobile previste per fine anno, sembrano che subiranno uno slittamento per dare la priorità alle CPU ad alte prestazioni).....la conseguenza inevitabile è che qualche CPU a 10nm venga declassata in ambito consumer per fare da porta bandiera... Ultima modifica di tuttodigitale : 21-04-2017 alle 15:55. |
|
21-04-2017, 16:07 | #25 | ||
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14720
|
Continui a fare esempi che riguardano scelte commerciali (uso della pasta conduttiva, numero di core, tempistiche di adozione di un processo produttivo, ecc...), che naturalmente sono molto influenzate dalla concorrenza, e non di tecnologie fantasmagoriche che Intel terrebbe nel cassetto.
Quote:
Quote:
Secondo me, a parte qualche dettaglio su cui non sono d'accordo, non stiamo dicendo cose molto differenti. |
||
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 00:53.